Next Generation Digital Transformation: 50 Prinzipien für erfolgreichen Unternehmenswandel im Zeitalter der Künstlichen Intelligenz [1. Aufl.] 9783658249342, 9783658249359

Dieses Buch beschreibt ein modular aufgebautes Transformationsmodell für die2020er-Jahre, um zu veränderten Marktumfelde

1,738 116 11MB

German Pages XVI, 329 [345] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Next Generation Digital Transformation: 50 Prinzipien für erfolgreichen Unternehmenswandel im Zeitalter der Künstlichen Intelligenz [1. Aufl.]
 9783658249342, 9783658249359

Table of contents :
Front Matter ....Pages I-XVI
Digitale Transformation im künstlich intelligenten Zeitalter (Michael Wolan)....Pages 1-24
Künstliche Intelligenz verändert alles (Michael Wolan)....Pages 25-50
Mit 30 Prinzipien zum Digital Champion (Michael Wolan)....Pages 51-162
Das digitale Transformationshaus der nächsten Generation (Michael Wolan)....Pages 163-166
Das digitale Technologierad der nächsten Generation (Michael Wolan)....Pages 167-288
Im Gespräch mit Transformationsgestaltern und Vordenkern (Michael Wolan)....Pages 289-329

Citation preview

Michael Wolan

Next Generation Digital Transformation 50 Prinzipien für erfolgreichen Unternehmenswandel im Zeitalter der Künstlichen Intelligenz

Next Generation Digital Transformation

Michael Wolan

Next Generation Digital Transformation 50 Prinzipien für erfolgreichen Unternehmenswandel im Zeitalter der Künstlichen Intelligenz

Mit einem Geleitwort von Frank Thelen

Michael Wolan Köln, Deutschland

ISBN 978-3-658-24934-2    ISBN 978-3-658-24935-9  (eBook) https://doi.org/10.1007/978-3-658-24935-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Gabler © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Geleitwort Frank Thelen

Spätestens seit der zunehmenden Verbreitung des Smartphones befinden wir uns in einer neuen Phase der Digitalisierung – war die PC-Revolution an unsere Schreibtische gebunden, haben wir nun faktisch überall Zugriff auf Informationen, die vor wenigen Jahren noch unvorstellbar waren. Ob Musik, Fotografie, Wissen und Lernen, Mobilität – ganze Branchen wurden schon durch das Smartphone disruptiv verändert. Gemacht wird diese Revolution aber in den USA und China, wie man unschwer an den Märkten sehen kann: Die Marktkapitalisierung der GAFA (Google, Apple, Facebook, Amazon) und BAT (Baidu, Alibaba, Tencent) liegt, während ich diese Zeilen schreibe, bei über 4,5  Bio.  US$. Und allein Microsoft ist an der Börse etwa so viel wert wie alle DAX30-Unternehmen zusammen: rund 1 Bio. US$. Einen europäischen Tech-Champion suchen wir jedoch vergeblich. Glücklicherweise stehen in den nächsten Jahren bzw. Dekaden viele weitere technologische Revolutionen an. Und noch hat Europa die Chance, diesmal dabei zu sein. Denn ob künstliche Intelligenz, Blockchain, 3D-Druck oder Quantum-Computing – die Grundlagenforschung in Europa muss sich hier international nicht verstecken. Unsere Arbeitswelt und gesamte Gesellschaft werden sich durch diese neuen Entwicklungen in den nächsten Jahren noch stärker verändern, als bisher durch PC, Internet und Smartphone. Und so wie PC und Smartphone Billionen-Dollar-Unternehmen wie Apple, Microsoft und Google hervorgebracht haben, werden es auch Blockchain und künstliche Intelligenz tun. Europa und Deutschland müssen die Rahmenbedingungen schaffen, dass einer der kommenden Marktführer hier beheimatet ist. Eine zielgerichtete Forschungsförderung, Austausch über Ländergrenzen hinweg sowie eine technologie- und unternehmensfreundliche Gesetzgebung sind dafür Voraussetzung. Doch es braucht nicht nur Global Player. Ein solider Mittelstand und innovative Start-­ ups, die die neuen Technologien zu nutzen wissen und weiterentwickeln können, sind unabdingbare Voraussetzungen für eine erfolgreiche europäische Wirtschaft. Ich freue mich, dass Michael Wolan diese für uns essenziellen Zukunftsthemen hier umfassend und verständlich ausführt. Uns beide verbindet die Leidenschaft für Wandel und Zukunftstechnologien, von denen viele unser Geschäftsleben im nächsten Jahrzehnt V

VI

Geleitwort Frank Thelen

massiv durchdringen und neue Geschäftschancen bringen werden. Neben den Technologien skizziert Michael ökonomische, kulturelle und organisatorische Prinzipien des Wandels für das vor uns liegende künstlich intelligente Zeitalter. Indem er seine Prinzipien in anschaulichen Modellen wie Transformationshaus, Technologierad oder KAFKA zusammenführt, beschreibt er klare Bezugsrahmen für Entscheider, die den Wandel in ihrem eigenen Unternehmen auf die nächste, durch Digitaltechnologien geprägte Evolutionsstufe heben wollen. Ich hoffe dieses inspirierende Buch findet viele Leser, aber noch wichtiger: Macher, die das Gelernte mit Mut und Passion umsetzen.

Bonn, Deutschland September 2019

Frank Thelen

Vorwort

Als Technologieenthusiast träume ich von einer superintelligenten Welt, die uns viele Freiheitsgrade und Optionsräume schafft, unsere Zeit damit zu verbringen, was uns mit Sinn erfüllt und unsere Lebensfreude erhöht. Einer Welt, die uns zufriedener, sicherer, ökologischer, gerechter und friedlicher zusammenleben lässt, in der die meisten von uns über 100 Jahre alt werden können – und dies bei voller Gesundheit. Diese Welt befindet sich vor uns. Wir werden sie in den kommenden Jahrzehnten gestalten und gemeinsam ihre Vorzüge erleben. Denn wir befinden uns mitten im Paradigmenwechsel des technischen Fortschritts mit massiven Auswirkungen auf alle Bereiche unserer Zivilisation. Unsere Welt wird nun unaufhaltsam intelligenter. Um uns herum entsteht digital vernetzte Maschinenintelligenz. Längst keine Utopie mehr, wird sie langsam zur Realität. Die Maschinen werden intelligenter und damit auch unser Umfeld, das uns beobachtet, uns versteht und uns hilft, wenn wir bereit sind, die modernen Assistenzsysteme unserer Zeit als Teil einer modernen Lebensführung anzunehmen. Auf lange Sicht hat technologischer Fortschritt unserer Menschheit stets dabei geholfen, sich in der neu entstehenden Welt wohlzufühlen und von soziokulturellen und ökonomischen Annehmlichkeiten durch technische Innovationen zu profitieren. Dies wird auch – davon bin ich überzeugt – zukünftig der Fall sein. Bei aller Vorfreude möchte ich nicht unerwähnt lassen, dass die zunehmende Geschwindigkeit des momentanen Wandels auch gelegentlich Fragezeichen hinterlässt und sich manchmal bei mir der Wunsch nach einer etwas verringerten Veränderungsgeschwindigkeit ausbreitet. Könnte der sich beschleunigende technische Fortschritt vielleicht sogar unsere menschliche Wandlungsfähigkeit eines Tages überschreiten? Doch meist verfliegen solche Gedanken schnell – angesichts der enormen technischen Faszination und Chancen, die vor uns liegen. Denn noch nie gab es in einer Generation unserer Menschheitsgeschichte solch große technologisch geprägte Umbrüche und spannende Erneuerungen wie in der jetzigen. Mit dem Buch möchte ich Ihnen 30 Transformationsimpulse an die Hand geben, die Sie bei der Gestaltung und Steuerung der digitalen Transformation Ihres Unternehmens berücksichtigen können. Die Prinzipien münden in das Transformationshaus, das sich als freikonfigurierbares Orientierungs- und Orchestrationsmodell versteht. Sie können das VII

VIII

Vorwort

Haus mit Blick auf Ihre aktuelle Ausgangssituation, ihre strategischen Ziele oder geplanten operativen Maßnahmen nutzen, um dem digitalen Wandel Ihrer Organisation im in­ telligenten Zeitalter Ihre eigene, unverkennbare „digitale Transformationshandschrift“ zu geben. Beim ­Transformationshaus, das mit dem KAFKA-Modell im Dach des Hauses abschließt, war mein Anspruch, eine inhaltliche und methodische Brücke zu bauen zwischen denjenigen Unternehmen, die noch am Anfang ihrer Transformationsreise stehen, und jenen, die sich bereits mitten in ihrer digitalen Transformation befinden und weiter fortgeschritten sind. Daneben gibt Ihnen das Technologierad einen 360-Grad-Einblick zu den 20  Zukunftstechnologien unserer Zeit, um den technischen Fortschritt ganzheitlich-differenzierter und untereinander vernetzt zu begreifen. Mit einer höheren technologischen Eindringtiefe und inspiriert durch Anwendungsbezüge, können Sie sich die richtigen Fragen stellen, um positive ökonomische Effekte und konkrete Nutzen für Ihre Kunden zu schaffen, neue Geschäftschancen durch digitale Technologien zu erschließen und den digitalen Wandel in den stürmenden, komplexen und schwer zu durchblickenden Marktumfeldern erfolgreich zu meistern. Das Buch schließt ab mit Transformationserfahrungen und Einschätzungen von acht hochkarätigen Managern, die offen über ihren Umgang mit strategischen, kulturellen, technologischen und geschäftsmodellbasierten Herausforderungen sprechen und dabei ganz persönliche Eindrücke zu den Umwälzungen der kommenden zehn Jahre vermitteln. Köln, Deutschland

Michael Wolan

Inhaltsverzeichnis

1 Digitale Transformation im künstlich intelligenten Zeitalter. . . . . . . . . . . . . . . .  1 1.1 Technischer Fortschritt der nächsten Generation������������������������������������������   2 1.2 Warum die digitale Transformation irreversibel und der Einstieg in Technologien der künstlichen Intelligenz alternativlos ist����������������������������   8 1.3 Wie VUCA Planungssicherheit und Kontrolle außer Kraft setzt und Unternehmen mit Kontrollverlust und Unbestimmtheitssituationen umgehen��������������������������������������������������������������������������������������������������������  10 1.4 Zwischen Effizienzsteigerung und Digitalwachstum������������������������������������  13 1.5 Digitale Mehrwerte als Voraussetzung für Digitalwachstum������������������������  13 1.6 Auf dem Weg zum intelligenten Unternehmen – zehn Transformationsthesen für die 2020er-Jahre – das Zeitalter der künstlichen Intelligenz����������������������������������������������������������������������������������  18 Literatur������������������������������������������������������������������������������������������������������������������  23 2 Künstliche Intelligenz verändert alles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1 Technologie: Exponentielles Wachstum von Maschinenintelligenz������������  27 2.2 Ökonomie: Künstliche Intelligenz verändert Wertschöpfung und Geschäftslogiken������������������������������������������������������������������������������������������  27 2.3 Arbeit: Artificial Coworkers substituieren menschliche Tätigkeiten������������  29 2.4 Affektivität: Wie intelligente Maschinen immer empathischer werden ������  34 2.5 Wettkampf: Wer gewinnt die „Global AI Challenge“? ��������������������������������  36 2.6 Status quo und Ausblick: Wo steht die künstliche Intelligenz heute und wo geht die Reise hin? ��������������������������������������������������������������������������  37 2.7 The Day After: Wenn Superintelligenzen uns in allem überlegen sind��������  43 Literatur������������������������������������������������������������������������������������������������������������������  48 3 Mit 30 Prinzipien zum Digital Champion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.1 Digitales Fundament ������������������������������������������������������������������������������������  52 3.2 Digitale Standortbestimmung ����������������������������������������������������������������������  63 3.3 Digitalstrategie����������������������������������������������������������������������������������������������  69 3.4 Digitale Transformationsplanung�����������������������������������������������������������������  81

IX

X

Inhaltsverzeichnis

3.5 Digitale Transformationsumsetzung ������������������������������������������������������������  87 3.6 Digitale Überlegenheit���������������������������������������������������������������������������������� 148 Literatur������������������������������������������������������������������������������������������������������������������ 159 4 Das digitale Transformationshaus der nächsten Generation. . . . . . . . . . . . . . . 163 5 Das digitale Technologierad der nächsten Generation . . . . . . . . . . . . . . . . . . . . 167 5.1 Cloud Computing������������������������������������������������������������������������������������������ 171 5.2 Mobile ���������������������������������������������������������������������������������������������������������� 176 5.3 Social Networks�������������������������������������������������������������������������������������������� 181 5.4 Cyber Security���������������������������������������������������������������������������������������������� 184 5.5 Biometrics ���������������������������������������������������������������������������������������������������� 189 5.6 Big Data Analytics���������������������������������������������������������������������������������������� 191 5.7 Voice Recognition ���������������������������������������������������������������������������������������� 197 5.8 3D/4D Printing���������������������������������������������������������������������������������������������� 199 5.9 Virtual, Augmented, Mixed Reality�������������������������������������������������������������� 202 5.10 Artificial Intelligence������������������������������������������������������������������������������������ 207 5.11 Advanced Robotics �������������������������������������������������������������������������������������� 219 5.12 Cognitive Assistants, Robotic Process Automation�������������������������������������� 226 5.13 Internet of Things, Digital Twins, Edge Computing������������������������������������ 231 5.14 Blockchain���������������������������������������������������������������������������������������������������� 240 5.15 Autonomous Driving������������������������������������������������������������������������������������ 248 5.16 Drones, Urban Air Mobility�������������������������������������������������������������������������� 254 5.17 Health Tech �������������������������������������������������������������������������������������������������� 262 5.18 Neuro Tech���������������������������������������������������������������������������������������������������� 269 5.19 Nano Tech, Nanobots������������������������������������������������������������������������������������ 274 5.20 Quantum Computing������������������������������������������������������������������������������������ 276 Literatur������������������������������������������������������������������������������������������������������������������ 283 6 Im Gespräch mit Transformationsgestaltern und Vordenkern . . . . . . . . . . . . . 289 6.1 Interview mit Philipp Magnus Froben, Geschäftsführer bei Medienhaus DuMont Rheinland ������������������������������������������������������������������ 289 6.2 Interview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische Innovation und Technologiemanagement�������������������������������� 294 6.3 Interview mit Kai Diekmann, Journalist und Entrepreneur�������������������������� 306 6.4 Interview mit Dr. Stefan Kohn, VP T-Gallery bei Deutsche Telekom���������� 310 6.5 Interview mit Christian Hoppe, Geschäftsführer bei Silicon Valley Bank�������� 314 6.6 Interview mit Nils Müller, Geschäftsführer bei TRENDONE���������������������� 317 6.7 Interview mit Christian Buchwald, Chief Technology Scout, TÜV Rheinland�������������������������������������������������������������������������������������������� 319 6.8 Interview mit Prof. Dr. Schmidhuber, Director und Professor am The Swiss AI Lab IDSIA – USI & SUPSI���������������������������������������������������� 325

Abbildungsverzeichnis

Abb. 2.1 Generationen von künstlicher Intelligenz im Vergleich. (Quelle: Fraunhofer IAIS)������������������������������������������������������������������������������ 40 Abb. 3.1 Digitaler Reifegrad als Netzdiagramm ���������������������������������������������������������� 65 Abb. 3.2 Digital Readiness Heatmap mit 48 Dimensionen und sechs Farbabstufungen���������������������������������������������������������������������������������������������� 66 Abb. 3.3 Framework Digital Customer Experience Management������������������������������ 100 Abb. 3.4 Trends bei Datenmanagement und Business Intelligence. (Quelle: BARC Trend Monitor 2019, n = 2679 BI-Nutzer) ������������������������ 135 Abb. 3.5 Hierarchische Organisation vs. agile Organisation�������������������������������������� 144 Abb. 3.6 KAFKA-Modell zur digitalen Überlegenheit im Wettbewerb���������������������� 149 Abb. 4.1 Das digitale Transformationshaus der nächsten Generation������������������������ 164 Abb. 5.1 Technologielebenszyklus (in Anlehnung an Schuh und Klappert 2011)������ 168 Abb. 5.2 Das Technologierad der nächsten Generation���������������������������������������������� 169 Abb. 5.3 Unterschiede innerhalb der drei Cloud-Service-Schichten�������������������������� 173 Abb. 5.4 Anbieter Cloud-basierter IT-Dienstleistungen für Software-as-a-Service (SaaS), Platform-­as-­a-Service (PaaS) oder Infrastructure-as-a-Service (IaaS) nach weltweitem Marktanteil. (Quelle: Synergy Research Group, Statista, Q1/2018) ���������������������������������������������������������������������������������������� 174 Abb. 5.5 Vice President John F. Mitchell und der Entwickler des ersten modernen Mobiltelefons der Welt DynaTAC portable radio telephone, Dr. Martin Cooper bei Motorola rufen mit ihrem Prototypen am 3. April 1973 auf der 6th Avenue in New York ihren Rivalen bei Bell Labs, Dr. Joel Engel, an: „[…] and there was silence at the other end of the line“. (Quelle: Motorola)���������������������������������������������������������������������������������������� 178 Abb. 5.6 Die 25 reichweitenstärksten sozialen Netzwerke im Jahr 2018. (Quellen: Digitalinformationworld, We are Social, Similar Web, Tech Crunch, Apptopia, Fortune, Wikipedia, Statista) �������������������������������� 183 Abb. 5.7 Unzureichender Schutz vor Cyberattacken. (Quelle: Check Point Software Security Report 2018)�������������������������������� 184

XI

XII

Abbildungsverzeichnis

Abb. 5.8 Bedrohungslage durch neue Schadprogramme und relative Verteilung. (Quelle: AV Test 2018) �������������������������������������������������������������������������������� 186 Abb. 5.9 Ziele der Cyberangreifer aus Unternehmenssicht. (Quelle: Deloitte 2017) �������������������������������������������������������������������������������� 186 Abb. 5.10 Anstieg des globalen Datenvolumens in Zettabytes. (Quelle: IDC 2018) �������������������������������������������������������������������������������������� 192 Abb. 5.11 Big Data Klassifikation. (Quelle: Bitkom) �������������������������������������������������� 194 Abb. 5.12 Head-Mounted-Displays im Jahr 2019. (Quelle: Microsoft, HTC, Oculus, Sony PlayStation)���������������������������������� 206 Abb. 5.13 Selbstverstärkender Kreislauf zur Entscheidungsqualität im Zusammenspiel von Mensch und Maschine������������������������������������������������ 208 Abb. 5.14 Beispielhafte Anwendungsfelder für künstliche Intelligenz. (Quelle: Fraunhofer IAIS)���������������������������������������������������������������������������� 213 Abb. 5.15 Roboter Shakey am MIT (Wikipedia)���������������������������������������������������������� 220 Abb. 5.16 Humanoider Roboter Atlas (Boston Dynamics 2018)���������������������������������� 222 Abb. 5.17 Geschätzter Bestand von Industrierobotern weltweit (Quelle: Statista 2019)���������������������������������������������������������������������������������� 223 Abb. 5.18 Global vernetzte Internet-of-Things-Geräte. (Quelle: Ericsson Mobility Report 2018) ���������������������������������������������������� 233 Abb. 5.19 Funktionsweise der Blockchain (in Anlehnung an Cryptocurrencydiy)������ 241 Abb. 5.20 Roboter-Shuttle-Bus Olli. (Quelle: Localmotors.com)�������������������������������� 251 Abb. 5.21 Stufen des autonomen Fahrens. (Quelle: Verband der Automobilindustrie VDA 2015) ������������������������������������������������������������������ 252 Abb. 5.22 Übersicht Flugtaxis: CityAirbus (Airbus), PAV (Boeing), Volcocopter 2X (Volcocopter), Lililum Jet (Lilium), Uber Air (Uber), Ehang 184 (Ehang)����������������������������������������������������������� 260 Abb. 5.23 Die erfolgreichsten Quantencomputer im Jahr 2019. (Quellen v.l.n.r.: Erik Lucero from the Quantum AI team at Google; ibm.com; Microsoft.com) �������������������������������������������������������������� 279

Tabellenverzeichnis

Tab. 1.1 Gründe für die digitale Transformation von Unternehmen���������������������������� 10 Tab. 1.2 Zehn beispielhafte Fragestellungen zu Steigerung von Effizienz und Wachstum������������������������������������������������������������������������������������������������ 14 Tab. 1.3  Zwanzig Mehrwertdimensionen im Kontext von Digitalwachstum mit digitalen Innovationen������������������������������������������������������������������������������������ 15 Tab. 3.1 Übersicht zu agilen Werten und Prinzipien���������������������������������������������������� 58 Tab. 3.2 Beispielhafte Kriterien zur Bewertung der digitalen Wettbewerbssituation�������������������������������������������������������������������������������������� 67 Tab. 3.3 Beispielhafte Kriterien zur Bewertung von Trends���������������������������������������� 68 Tab. 3.4 Beispielhafte Kriterien zur Bewertung von Technologieattraktivität ������������ 68 Tab. 3.5 Transformationsbarrieren (Quellen: Institut der deutschen Wirtschaft, YouGov, GfK, etventure, eigene Erfahrungen)���������������������������� 74 Tab. 3.6 Schlüsselfaktoren eines Geschäftsmodells ���������������������������������������������������� 88 Tab. 3.7 Beispielhafte Geschäftsmodelmuster mit Differenzierung zwischen klassischen, hybriden und digitalen Geschäftsmodellen���������������� 92 Tab. 3.8 Klassen und Merkmale von digitalen Produkten und Services���������������������� 94 Tab. 3.9 Schlüsselprinzipien bei Digital Leadership�������������������������������������������������� 104 Tab. 3.10 Schwerpunkte und Anbieterübersicht bei Social-Collaboration-Tools�������� 109 Tab. 3.11 Vor- und Nachteile beim Einsatz digitaler Collaboration-Arbeitswerkzeuge������������������������������������������������������������������ 112 Tab. 3.12 Sechzehn exemplarisch gewählte, aussichtsreiche Berufsbilder der Zukunft �������������������������������������������������������������������������������������������������� 114 Tab. 3.13 Übersicht zur Datenklassifizierung�������������������������������������������������������������� 133 Tab. 3.14 Beispielhafte Merkmale für eine erfolgreiche, digitale Kulturveränderung���������������������������������������������������������������������������������������� 151 Tab. 5.1 Nutzendimensionen beim Einsatz von Digitaltechnologien im Unternehmen ������������������������������������������������������������������������������������������ 170 Tab. 5.2 Generationen von Schadprogrammen���������������������������������������������������������� 185 Tab. 5.3 Messbare, individuelle biometrische Körpermerkmale�������������������������������� 189

XIII

XIV

Tabellenverzeichnis

Tab. 5.4 Vorteile von visuellen und auditiven Ausgabesystemen (in Anlehnung an Jacobsen 2018)���������������������������������������������������������������� 198 Tab. 5.5 Beispielhafte Branchen und Anwendungsfelder bei Virtual, Augemented und Mixed Reality ������������������������������������������������������������������ 207 Tab. 5.6 Beispielhafte Einsatzfelder für künstliche Intelligenz���������������������������������� 218 Tab. 5.7 Vorteile durch den Einsatz von Robotic-Process-Automation-Technologie (in Anlehnung an Institute for Process Automation)������������������������������������ 231 Tab. 5.8 Anwendungsbeispiele und Nutzen im Kontext Internet der Dinge�������������� 234 Tab. 5.9 Vor- und Nachteile beim Edge Computing�������������������������������������������������� 240 Tab. 5.10 Zehn Anwendungsfelder und Beispiele für Blockchain-Technologie���������� 245 Tab. 5.11 Beispielhafte Anwendungsfelder ziviler Drohnentechnologie �������������������� 255 Tab. 5.12 Beispielhafte Einsatzfelder beim Quantum Computing ������������������������������ 280

Über den Autor

Michael Wolan  – Zukunftsfaszination trifft auf Strategieberatung Eine schnelle organisatorische Wandlungsfähigkeit, eine wertebasierte Kulturtransformation, die Mensch und Maschine strategisch verzahnt, sowie die Erschließung völlig neuer innovativer Geschäftschancen an den wertvollsten Anwendungsfällen – darauf setzt der Ökonom und Strategieberater Michael Wolan bei seiner nunmehr 20-jährigen Arbeit mit DAX Konzernen und Unternehmen aus dem gehobenen Mittelstand. Wie kein anderer durchdringt der KI-Experte Zukunftsfragen und Business gleichermaßen und baut Brücken zwischen Technologien, kulturellen und ökonomischen Geschäftschancen. Angetrieben durch die massive Verschiebung von Marktkräften und der sich dramatisch beschleunigenden Computerintelligenz, stellt er in Unternehmen die entscheidenden Weichen, DIE Schlüsseltechnologie Künstliche Intelligenz tiefgreifend in ihrer Unternehmens-DNA zu verankern. Er ist überzeugt, dass Unternehmen dann zukunftsfähig und am Markt führend bleiben, wenn sie den technischen Fortschritt strategisch steuern und ihre organisatorische Wandlungsfähigkeit in der Dimension des Zehnfachen steigern. Aufgrund der Brisanz des Themas, setzt er sich auch in seinen Fachbüchern und KI-Vorträgen für eine intelligente Beschleunigung unserer Wirtschaftswelt ein. Mit beeindruckenden Geschichten und Zahlen vermittelt er Aufbruchsstimmung und macht deutlich, warum KI als bedeutsamste Technologie aller Zeiten für Unternehmen überlebensnotwendig ist. Dabei scheut er sich nicht, auch große und schwere Fragen für unsere Wirtschaft und Gesellschaft zu stellen, um seine Leser und Zuhörer zum Nachdenken und zur Zukunftsgestaltung anXV

XVI

Über den Autor

zuregen. In seinem neuesten Buch „Next Generation Digital Transformation – 50 Prinzipien für erfolgreichen Unternehmenswandel im Zeitalter Künstlicher Intelligenz“ (Springer Gabler) erhalten seine Leser ein modular aufgebautes Modell für die 2020er Jahre, um die eigene Unternehmensentwicklung mit den rasanten Marktveränderungen zu synchronisieren und digitale Überlegenheit im Wettbewerb zu erreichen. Michael Wolans Zukunftsfaszination beschränkt sich nicht allein auf die Themenfelder „Digitale Transformation“ und „Künstliche Intelligenz“. Zwar ist er Technologien seit der Programmierung seiner ersten Software im Alter von 15 Jahren treu geblieben, doch in seiner Freizeit begeistert er sich besonders für die Gehirnforschung und das Thema Lebensverlängerung. Die nötige Klarheit und Fokussierung für seine anspruchsvollen Transformationsaufgaben holt sich Michael Wolan in der Natur oder bei der Meditation im Kloster.

1

Digitale Transformation im künstlich intelligenten Zeitalter

Zusammenfassung

Was in den 2020er-Jahren passieren wird, ist heute bereits erkennbar: Künstlich intelligente Softwaresysteme und Maschinenintelligenz werden den technischen Fortschritt stärker beschleunigen als es jemals zuvor in unserer Zivilisationsgeschichte der letzten 10.000 Jahre der Fall war. Noch nie zuvor fand technologischer Wandel so tiefgreifend statt: In den vergangenen Jahrhunderten haben die Maschinen uns Menschen bei der körperlichen Arbeit ersetzt. Aber von jetzt an und zum ersten Mal in der Menschheitsgeschichte, werden uns intelligente Maschinen bei der Kopfarbeit ablösen. Nicht sofort. Vielmehr Schritt für Schritt. Bei der digitalen Transformation befinden wir uns auf dem Sprung ins Zeitalter der Künstlichen Intelligenz (KI). Die Schallmauer ist durchbrochen, der Wandel unumkehrbar. Digitale Transformation wird damit komplexer und zum Multi-Change-Phänomen. Veränderungen in Unternehmen finden auf immer mehr Ebenen und granularer statt. Planungsunsicherheit und Kontrollverlust werden zu festen Bestandteilen auf den Managementetagen. Um wirksam mit Komplexität, Unbestimmtheitssituationen und Veränderungserfordernissen umzugehen, benötigen Unternehmen ein differenziertes Vorgehen und ein erweitertes Technologienutzenverständnis jenseits der IT-Etage.  Je besser es gelingt, die aufstrebende Schlüsseltechnologien  – allen voran die Supertechnologie KI – an den richtigen Stellen in die eigene Geschäftslogik zu integrieren, desto größer werden Produktivitätsvorteile, Qualitätsvorteile, Effizienzgewinne,  Kundenzufriedenheit und Zukunftsfähigkeit sein. Die 2020er und 2030er Jahre  werden von starken  Umbrüchen geprägt sein. In Branchen mit hohem Wettbewerbsdruck wird das Tempo von erforderlichen technischen Innovationen noch weiter steigen. KI wird sowohl die Art und Weise wie Unternehmen ihre Wertschöpfung generieren und vermarkten als auch wie Unternehmen ihre Entscheidungen treffen von Grund auf verändern. Einen ersten Vorgeschmack geben zehn Transformationsthesen zwischen Transformation der Arbeit und Mensch-Maschine-Innovation. © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Wolan, Next Generation Digital Transformation, https://doi.org/10.1007/978-3-658-24935-9_1

1

2

1.1

1  Digitale Transformation im künstlich intelligenten Zeitalter

Technischer Fortschritt der nächsten Generation

Seit zwei Jahrzehnten Jahren verändert die Digitalisierung unsere Welt tiefgreifend. Sie sorgt für eine dramatische Beschleunigung der Veränderungen durch sich überlappende Transformationsebenen und Technologien. Ihre Macht ist allgegenwärtig und in jeden Winkel der Zivilisation vorgedrungen wie elektrischer Strom. Sie sorgt dafür, dass sich das digitale Nervensystem von Unternehmen und Gesellschaften Jahr für Jahr vergrößert. Mit Lichtgeschwindigkeit treibt die Menschheit die Digitalisierung auf ihrem Planeten voran und überholt sich dabei sogar selbst (Wolan 2013). Heute noch regiert digital. Aber schon morgen regiert ihr Nachfolger. Denn die Digitalisierung schafft ein wichtiges Fundament für etwas noch Größeres und Überdimensionales: die sich exponentiell entwickelnde Computerintelligenz. Was in den 2020er-Jahren passieren wird, ist heute bereits absehbar: Künstlich intelligente Softwaresysteme und Maschinenintelligenz werden den technischen Fortschritt stärker beschleunigen, als es jemals zuvor in unserer Zivilisationsgeschichte der letzten 10.000 Jahre der Fall war. Denken wir an Dampfmaschine, Indus­ trialisierung oder Maschinisierung zurück, haben Maschinen die körperliche Arbeitskraft ersetzt. Doch schon bald werden Maschinen zusätzlich die kognitive Arbeitskraft ersetzen, die geprägt ist von der Wahrnehmung unserer Umwelt, Aufmerksamkeit auf spezielle Geschehen, Nachdenken, Informationsspeicherung und der Zuweisung von Bedeutung (Hayes 1995). Der vor uns liegende Wandel wird von beachtlicher epochaler Tragweite sein. (Bitte Literatur ergänzen um: Hayes, Nicky (1995): Kognitive Prozesse - eine Einführung, in: Gerstenmaier (Hrg.), S.11-40, Ernst Reinhardt Verlag, München) Die Schallmauer ist längst durchbrochen. Willkommen in der Generation des sich beschleunigenden technischen Fortschritts, der dafür sorgt, dass Ihr Geschäft von morgen weitgehend digital, vernetzt und intelligent sein wird. Gigantische Datenseen, steigende  Rechengeschwindigkeit und Algorithmen legen die Grundsteine für neue Wertschöpfungsketten, digitale Geschäftsmodelle und Umsatzströme. Intelligente Software-­ Roboter übernehmen einfache Routineaufgaben und definieren die Arbeitsteilung neu. Sie sorgen für fortlaufende Prozessverbesserungen und machen Kosteneinsparungen in großem Stil möglich. Der technologische Fortschritt schafft neue Formen der Zusammenarbeit – zwischen Menschen, zwischen Menschen und Maschinen und zwischen Maschinen und Maschinen. Er verändert die Art und Weise, wie Unternehmen mit ihren Kunden interagieren: dramatisch und schnell. Die Welt um uns herum wird komplexer, überraschender, unabsehbarer und dadurch für Unternehmen immer weniger planbar und nach tradierten Prinzipien steuerbar. In den kommenden zehn Jahren werden Unternehmen mit neuen digitalen Transformationsanforderungen konfrontiert sein, die noch breiter, tiefer und überlappender sein werden als bisher. Die veränderten Märkte werden sie dazu veranlassen, sich klug und ausgewogen mit neuen Anforderungen, Risiken und Chancen auseinanderzusetzen. Neue Sichtweisen, Führungsprinzipien, Arbeitsmethoden und Herangehensweisen bei Schlüsseltechnologien sind gefragt.

1.1  Technischer Fortschritt der nächsten Generation

3

Digitale Transformation als Multi-Change-Phänomen Bei künftiger digitaler Transformation wird es nicht nur darum gehen, alte durch leistungsfähigere oder ganz neue Technologien zu ersetzen. Es ist weit mehr als das: ein Mix aus Transformation von Geschäftsmodellen und Produktportfolios, Organisationsstrukturen und Zusammenarbeit, Wertschöpfungsketten und Workflows, Führungsstilen und Mindsets sowie einer digitalen Form der Kommunikation und Neugestaltung von Kundenbeziehungen. Darüber hinaus spielt der Umgang mit Daten eine ganz zentrale Rolle. Ganzheitlich betrachtet, stehen Unternehmen einem komplexer werdenden Multi-­Change-­ Phänomen gegenüber, das ihre Wandlungsfähigkeit stark herausfordert. Seit Ende der 2000er-Jahre setzen sich Transformationspioniere mit dem digitalen Veränderungsphänomen offen und konsequent auseinander – in der Annahme, dass es sich dabei für Unternehmensleitung und Innovations-, Technologie- und Strategieverantwortliche um eine der größten Umwälzungen handelt könnte, die in der Unternehmenswelt seit langer Zeit zu bewältigen war. Heute wissen wir, dass der gegenwärtige Wandel eine Breite, Tiefe und Qualität erreicht, die es in diesem Umfang jedes Jahrhundert vielleicht nur wenige Male gibt. Beispiele für epochale Wandel finden sich rückblickend bei der Mechanisierung, Maschinisierung, Elektrifizierung, Massenproduktion, Telefonisierung, Massenmotorisierung, Computerisierung oder industriellen Automatisierung. Blicken wir auf die Veränderungsanforderungen der nächsten Jahrzehnte, werden die Veränderungen beispiellos sein. Selbst ohne Berücksichtigung von künstlicher Intelligenz wäre der Organisationsumbau alternativlos, mit ihr ist er es erst recht. Der digitale Umbau der Organisation ist alternativlos. Unternehmen, die heute beabsichtigen sollten, zu einem späteren Zeitpunkt auf den Transformationszug aufzuspringen, werden im ersten Schritt Marktanteile und Jahre später den Anschluss an die digitalisierte Konkurrenz verlieren, weil diese auf lernende, intelligente Wertschöpfungsketten setzt. Digtale Player werden ihre Produkte günstiger herstellen, wirksamer führen, bessere Entscheidungen treffen, effizienter  mit Daten umgehen sowie agiler und schneller auf von außen kommende Änderungen reagieren. Sie werden ihre Kunden über alle relevanten digitalen Kundenkontaktpunkte nahezu optimal bedienen können. Und mit neuen digitalen und künstlich-intelligent veredelten Produkten und Lösungen auf Kunden zugehen, noch bevor letztere über sie nachdenken oder sie bewusst einfordern. Diejenigen Unternehmen, die ihre Kunden genau kennen und wissen, was sie erwarten oder demnächst tun werden, können sie positiv überraschen, begeistern und scheinbar ohne Mühe an sich binden. Klassische Geschäftsmodelle werden noch stärker als bisher unterwandert Der einfache Zugang zu innovativen Technologien setzt die klassischen Geschäftsmodelle unter Anpassungsdruck. Denn noch nie war es so einfach wie heute, etablierte Geschäftsmodelle anzugreifen. Dank einiger Technologiesprünge in der Softwareentwicklung benötigen Entrepreneure heute deutlich weniger Zeit und Geld, um kleinste, vermarktbare technisch-funktionale Beta-Lösungen aufzusetzen, die bei einer überschaubaren Nutzerzahl ihre Dienste tun. Innerhalb weniger Wochen und Monate entwickeln sie ihre digitalen Ge-

4

1  Digitale Transformation im künstlich intelligenten Zeitalter

schäftsmodelle weiter und validieren diese im Markt auf Akzeptanz und Skalierungspotenzial. All dies geschieht in der Anfangsphase nahezu ohne nennenswerten Kapitaleinsatz. So stehen jeden Morgen Millionen von jungen, hungrigen und nicht selten hochqualifizierten Menschen auf, deren erklärtes Ziel es ist, etablierte Konzerne anzugreifen und abzulösen. Sie setzen das Establishment unter Druck und greifen deren Vormachtstellungen an. Branchennachzügler sind gefährdet Es ist  unwahrscheinlich, dass ein Elite-Replacement, ein radikaler Austausch der sog. Platzhirsche, stattfinden wird. Und wahrscheinlich, dass viele Organisationen nicht konsequent und entschieden genug ihr Potenzial bei neuen Schlüsseltechnologien nutzen. In der Folge laufen insbesondere diejenigen Unternehmen, die nicht führend innerhalb ihrer eigenen Branche sind und sich als First Mover verstehen, Gefahr, dass neue Herausforderer in das bestehende Geschäftsmodell einbrechen, bekannte Schwächen ausnutzen und Teile des zukünftigen Markts für sich beanspruchen. So brechen überall digitale He­ rausforderer in die etablierten Märkte ein. Bislang erzielen vereinzelte Start-ups in seltenen Fällen signifikante Marktanteile. Sind es aber Hunderte oder Tausende weltweit agierende FinTechs, InsurTechs, AdTechs, EnerTechs, EdTechs, HealthTechs, TravelTechs, CleanTechs, GreenTechs, AgriTechs, FoodTechs, ChemTechs, BioTechs, FashionTechs oder „Ihre TraditionsbrancheTechs“, blicken Unternehmen auf ganze neue Ökosysteme und Wettbewerbskonstellationen mit digitalen Herausforderern, die innerhalb der Branche heranwachsen und das eigene tradierte Geschäftsmodell systematisch unterwandern. Diese Ökosysteme können etablierten Unternehmen gefährlich werden, wenn durch überraschende, signifikante Kapitalzuflüsse oder strategische Beteiligungen neue Marktkräf­te entstehen. Wenn innerhalb eines Jahres ganz neue Wettbewerbssituationen entstehen Eine besondere Dynamik kommt ins Spiel, wenn sich David und Goliath paaren. In solchen Fällen profitieren die großen Partner von der enormen Geschwindigkeit und Agilität ihrer kleinen Partner, die zudem über erhebliche Technologievorsprünge und ein vollständig digitalisiertes, skalierbares Geschäftsmodell verfügen. Und die jungen Unternehmen profitieren von Wachstumskapital, Skalierungserfahrung und Marktzugängen der Etablierten. In solchen Fällen kann innerhalb eines Jahres eine ganz neue Marktsituation entstehen. Zwei Beispiele aus der Banking-Welt

David & Goliath I: Weltsparen trifft auf Paypal Als Anfang 2018 der Payment-Marktführer Paypal mit dem Berliner Start-up Weltsparen.de eine Kooperation einging, ging ein Raunen durch die Banking-Branche. Was war passiert? Plötzlich bot das Digitalunternehmen, dass größer ist als Deutsche Bank und Commerzbank zusammen und weltweit über 250 Mio. Kunden verfügte, ein eigenständiges Sparprodukt an. Durch den aktiven Einstieg ins Retail-Banking ganz jenseits des Zahlungsverkehrs vollzog der Payment-Gigant einen weiteren, wichtigen Schritt zur Besetzung der Kundenschnittstelle. Die Banking-Branche fragte sich zurecht, wann

1.1  Technischer Fortschritt der nächsten Generation

5

Paypal den Kreislauf „Zahlen. Sparen. Verleihen“ schließen, ein volldigitales Vollkonto anbieten und damit ein für klassische Banken oder Sparkassen kaum noch ebenbürtiger Mitspieler sein wird. David & Goliath II: N26 trifft auf Allianz X und TenCent Das 2013 gegründete und 2015 in Deutschland und Österreich gestartete Start-up N26, sammelte in seiner Series-C-Finanzierungsrunde im Mai 2018 rund 160 Mio. $ Risikokapital ein und nahm damit die größte Hürde von Start-ups bei der Geschäfts­ skalierung. Die Lead-Investoren waren keine Unbekannten: Allianz  X und TenCent. Der in Europa noch nicht so bekannte Konzern TenCent aus China zählte zum Zeitpunkt des Einstiegs mit einer Marktkapitalisierung von 500 Mrd. $, einem Umsatz von über 40 Mrd. $ und einer 30%igen EBIT-Marge zu den wertvollsten Unternehmen der Welt. Mit einem digitalen Geschäftsmodell gestartet, verfügte N26 nach eigenen Aussagen bereits über eine geringere Kostenstruktur als jedes klassische Kreditinstitut. Zur Übernahme gab N26 im April 2018 bekannt, seine Kunden bis 2020 von 815.000 auf 5 Millionen steigern zu wollen. Im Dezember 2018 erklärte N26, über mehr als 2 Mio. Kunden zu verfügen. Nach mehreren Finanzierunsrunden stieg N26 im Sommer 2019 mit einer Bewertung von 3,5 Milliarden € zum wertvollsten deutschen Startup auf. Seitdem gehört das Unternehmen zu den 10 wertvollsten FinTech-Unternehmen weltweit. Im Juli 2019 zählte N26 mehr als 3,5 Mio. Kunden in inzwischen 26 Ländern. In einem im Interview gab N26-Chef Valentin Stalf an, dass N26 Ende 2020 schon zehn Millionen Kunden haben könnte und perspektivsch sogar 100 Millionen.

Digitales Eldorado für etablierte Unternehmen Wenngleich solche Beispiele zeigen, wie schnell sich die Marktkräfte innerhalb  einer Branche verschieben, schauen viele Unternehmen keinesfalls nur zu. Durch den Druck aus unmittelbarer Umgebung reagieren insbesondere marktführende Akteure weder konservativ, noch ruhen sie sich auf modernen Eindämmungsstrategien aus. Sie rufen Digitalstrategien wie „Protect. Optimize. Digital Growth.„ aus und bereiten ihren aktiven Eintritt in die neue Digitalarena gezielt vor. Mit strategischen Initiativen und beachtlichen Ressourcen beginnen die Etablierten mitzuspielen und werden auf diese Weise zu wesentlichen Trägern des digitalen Wandels. So gewinnt der digitale Transformationsprozess an Breite und Legitimität und feuert den digitalen Wettbewerb zu Höchstleistungen an. Zum Beginn der 2020er-Jahre fährt der digitale Hochgeschwindigkeitszug auf Betriebstemperatur ins neue Eldorado digitaler Potenziale ein. Die Karten werden neu gemischt. Und kein Stein wird auf dem anderen geblieben sein, wenn sich die Spieler, Geschäftsmodelle, Marktanteile und Technologien – allen voran künstliche Intelligenz (KI) als Querschnittstechnologie – innerhalb von nur einer Dekade massiv verändert haben werden. Die Lage ist ernst geworden, aber noch nicht dramatisch Es ist wahr, dass etablierte Unternehmen nicht einfach so vom Markt verschwinden werden und nicht jede Zukunftsprognose garantiert eintritt. So gibt es immer noch Papier in

6

1  Digitale Transformation im künstlich intelligenten Zeitalter

den Büros, obwohl das Paolo Alto Research Center in den 1970er-Jahren dies für unmöglich hielt. Auch Bücher werden heute noch gelesen – die Absatzzahlen sind über die Jahre viel langsamer gesunken, als viele Experten in den 2000er-Jahren vorausgesagt haben. Wie gegensätzlich der Einsatz von Papier gehandhabt werden kann, zeigt das Beispiel von Otto und Amazon. Während Otto seinen letzten Otto-Katalog nach rund 70  Jahren im November 2018 drucken ließ, verschickte der größte Online-Händler der Welt Amazon fast zeitgleich in den USA Weihnachtskataloge in Printform. Die Amazon-Kataloge bebilderten ausgewählte Produkte für unterschiedliche Altersgruppen – von der Holzeisenbahn über das Kuscheltier bis zu Videospielen und dazu passenden 4K-Fernsehern. Über die Amazon-App konnten die Katalogleser entweder einen QR-Code oder das Produktbild abfotografieren und wurden anschließend auf die Amazon-Plattform weitergeleitet. Die Geschichte zeigt, dass wir Menschen unglaublich schnell und offen  dafür sind, wenn es darum geht, neue Dinge auszuprobieren und anzunehmen. Daneben halten wir aber auch gern an Althergebrachtem fest wenn es nützlich ist oder uns ein gutes Gefühl gibt. Und solange Papier uns nützt oder uns ein gutes haptisches, vertrautes oder erhebendes Gefühl gibt oder das Papier den Duft von Zitronenbäumen und Druckerschwärze in die Nase steigen lässt, wird es nicht innerhalb von wenigen Jahren vom Markt verschwinden. Diesem Gedanken folgend, werden auch Unternehmen, die ihren Kunden wettbewerbsfähige Leistungen anbieten und ganz konkrete Kundennutzen oder nachhaltig wirkende Begegnungen und Erlebnisse stiften, nicht innerhalb von wenigen Jahren obsolet – vorausgesetzt, die Kostenstruktur lässt auf Dauer weiterhin profitable Erlöse zu. Digitale Transformation und künstliche Intelligenz zu ignorieren, wird zum Spiel mit dem Feuer Seit Forrester Research 2015 bekannt gab, dass erst 27 % der Unternehmen eine kohärente digitale Transformationsstrategie besitzen, lässt sich beobachten, dass viele Unternehmen nachziehen, indem immer mehr Unternehmenslenker das Digitalthema auf ihre Agenda setzen und in ihre Unternehmensstrategie einbetten. Management-Etagen, die noch nicht damit begonnen haben, sich umfassend und weitreichend mit digitaler Transformation und ihren Konsequenzen zu befassen, spielen ein riskantes Spiel mit dem Feuer. Haben sie bis Ende 2020 kein solides digitales Fundament geschaffen, werden sie es schwer haben, das kommende Jahrzehnt zu überleben. Ignorieren sie das Phänomen der digitalen Multi-­ Transformation und insbesondere KI als Schlüsseltechnologie ganz und bauen ihre Organisation nicht konsequent um, werden sie perspektivisch vom Markt verschwinden oder marginalisiert. Trotz allem Optimismus darf nicht übersehen werden, das hauptsächlich durch die Digitalisierung rund 52 % der Fortune-500-Unternehmen zwischen 2000 und 2015 vom Markt verschwunden sind (Kroker 2015). Laut Studie der Washington University wird dieser Trend anhalten. Die Wissenschaftler sagten 2014 voraus, dass etwa 40 % der Fortune-500-Unternehmen in den kommenden zehn Jahren nicht mehr am Markt existieren werden.

1.1  Technischer Fortschritt der nächsten Generation



Riskantes Spiel mit dem Feuer

„Unternehmenslenker, die 2020 noch nicht damit begonnen haben, sich umfassend und weitreichend mit der Digitalen Transformation und ihren Konsequenzen zu befassen, spielen ein riskantes Spiel mit dem Feuer. Haben sie bis Anfang 2021 kein solides „Digitales Fundament“ geschaffen, dass KI als Schlüsseltechnologie hinreichend berücksichtigt, werden sie es schwer haben, das kommende Jahrzehnt zu überstehen. Ignorieren sie das Phänomen der Digitalen MultiTransformation und die Schlüsseltechnologie KI ganz und entwickeln ihre Organisation nicht konsequent weiter, werden sie innerhalb von 10 Jahren vom Markt verschwinden oder unbedeutend sein.“

7

8

1  Digitale Transformation im künstlich intelligenten Zeitalter

Unternehmen stellen sich immer digitaler auf Diverse Digitalisierungsstudien belegen, dass immer mehr Unternehmen ihre Weichen für eine digital-strategische Zukunft stellen oder sich bereits mitten in ihrer digitalen Transformation sehen. In ihrem IDT-Research-Report 2017 „Skills for Digital Transformation“ veröffentlichte die TUM zusammen mit SAP, dass 90 % der 115 befragten Entscheider die digitale Transformation als wichtigen Bestandteil der Unternehmensstrategie sahen; 45 % kamen zu der Einschätzung, dass ihr Geschäftsmodell durch Digitalisierung bedroht sei. Und 37 % verfügten über eine klar definierte Digitalstrategie, um sich Disruptionen zu stellen (Hoberg et al. 2017). BITKOM-Präsident Achim Berg zeichnete Mitte 2018 ein noch weiter fortgeschrittenes Transformationsbild: Von 604 befragten Unternehmen verfügten 78 % über eine zentrale Digitalstrategie, die unterschiedliche Aspekte der Digitalisierung berück­ sichtigte und vom Top-Management getrieben wurde (43 %) oder bei der Digitaltechnologien in einzelnen Unternehmensbereichen (35 %) Einzug fanden. Um auf die veränderten Marktbedingungen adäquat zu reagieren, gaben 63 % der Befragten an, ihr bestehendes Portfolio angepasst und 48 % neue Produkte oder Dienstleistungen auf den Markt gebracht zu haben. Auch wenn 2016 zwei Drittel der Unternehmen darauf verwiesen, dass sich infolge der Digitalisierung ihr Geschäftsmodell verändert hat, zeigten sich 2018 nur 23 % bereit, in digitale Geschäftsmodelle investieren zu wollen (Berg 2018).

1.2

 arum die digitale Transformation irreversibel und der W Einstieg in Technologien der künstlichen Intelligenz alternativlos ist

Die digitale Transformation ist schnell, irreversibel und unausweichlich (Oswald und Krcmar 2018). Sie beschreibt den wettbewerbskritischen Wandel hin zu vernetzten, digitalisierten Organisationen mit einem neuen Verständnis von Führung, Kultur, Zusammenarbeit, Wertschöpfungsketten, IT-Systemen, Arbeits- und Kommunikationswerkzeugen, Kundenbeziehungen und Geschäftsmodellen. Als geplanter Change-Prozess, der neben dem strategischen Technologieeinsatz auch auf eine nachhaltige Kulturveränderung setzt, die gesamte Organisation mit ihrem Umfeld einbezieht, von der Führungsmannschaft getragen und systematisch (nach-)gesteuert wird, feiert die digitale Transformation von Unternehmen seit Jahren Hochkonjunktur. Nicht jedes Unternehmen ist gleich stark betroffen Es liegt in der Natur der digitalen Evolution, dass nicht alle Unternehmen zur gleichen Zeit und in gleichem Ausmaß vom digitalen Wandlungsdruck betroffen sind. Die Auswirkungen der Umwälzung der Märkte durch die Digitalisierung unterscheiden sich. Studien zum Thema zeigen, dass die digitale Transformation branchen- bzw. geschäftsmodellbe-

1.2  Warum die digitale Transformation irreversibel und der Einstieg in Technologien …

9

zogen stattfindet. In ihrer Disruption Map bewerteten die Kollegen von Deloitte in 2015 unterschiedliche Branchen  mit Blick auf die beiden Dimensionen Einflussstärke und ­Zeitverlauf und wiesen jede Branche einem von vier Quadranten zu. Dabei zeigten sich Banken, Versicherungen oder die Bildungsindustrie stärker und früher von der Digitalisierung betroffen als z. B. Bauunternehmen, Chemiekonzerne oder Energieversorger. Neben dem Industriezweig an sich, ist Transformation auch geschäftsmodellabhängig. So ist das Geschäftsmodell des Hufschmieds nicht gleichzusetzen mit dem eines Versicherungsunternehmens, Ölkonzerns oder Finanzministeriums. Daher wird es trotz der Digitalisierung auch in zehn Jahren noch Hufschmiede geben, vielleicht sogar auch noch in 100  Jahren. Dann aber in einem völlig veränderten digitalen Umfeld, an das sich Hufschmiede angepasst haben werden. Wenn sich das Umfeld schneller digitalisiert, als das eigene Unternehmen Diejenigen Unternehmen, die den Wandel noch nicht mit voller Kraft mitgehen, geben vermeintlich gute Gründe dafür an. Zum Beispiel, dass das Unternehmensumfeld noch nicht oder kaum digitalisiert erscheint bzw. die Branche bisher kaum durch neue Technologien durchdrungen wurde. Solange dies noch der Fall ist und sich Lieferanten, Wettbewerber und Kunden weniger stark verändert haben als das Unternehmen selbst, wäre kein offensichtlicher Grund für eine schnelle und umfassende Veränderung gegeben. Aber in welcher Branche, bei welchem Geschäftsmodell oder Kundenportfolio ist dies eigentlich noch der Fall? Immer wenn der digitale Reifegrad  eines Unternehmens in einem bereits überwiegend digitalisierten Umfeld unterdurchschnittlich ausgeprägt ist, wird es für das Top-Management  besonders herausfordernd, zeitnah nachzuziehen, dabei Aktionismus zu vermeiden und auf Sondertöpfe zuzugreifen, um entsprechende Maßnahmen auf relativ kurzer Zeitachse voranzutreiben. Stetige Verschiebung der Marktkräfte Die digitale Transformation wird angefeuert durch die Verschiebung der Marktkräfte im Unternehmensumfeld. Der Druck von außen erhöht sich durch die gestiegenen Kundenerwartungen. Damit ist gemeint: Preis-Leistungs-Transparenz, einfach bedienbare Produkte und Services, oder exzellente Kundenerlebnisse an allen digitalen Kundenkontaktpunkten. Der Druck von außen erhöht sich auch durch brancheninterne Marktteilnehmer mit höheren digitalen Reifegraden, integrierten Zukunftstechnologien und digitalisierten Geschäftsmodellen. Neben Marktteilnehmern mit Ersatzprodukten dringen auch Disruptoren in die Wertschöpfungskette von Unternehmen an - mit dem Ziel, die Kundenschnittstelle mit innovativen, technisch überlegenen Lösungen neu zu besetzen. Warum Unternehmen ihre digitale Reife steigern müssen Es gibt viele substanzielle Gründe für Unternehmen, sich im Zuge der irreversiblen Digitalisierung anzupassen, um auch weiterhin wettbewerbs- und zukunftsfähig zu bleiben. Die Tab. 1.1. zeigt zehn Anpassungsgründe auf einen Blick.

10

1  Digitale Transformation im künstlich intelligenten Zeitalter

Tab. 1.1  Gründe für die digitale Transformation von Unternehmen Transformationsgründe (interne Sicht) Transformationsgründe (externe Sicht) Digitalisierte Unternehmen kennzeichnet ein 1 Das unternehmerische Umfeld wird von wesentlich schnelleres zunehmender Volatilität, Ungewissheit, Produktivitätswachstum. Komplexität und Ambiguität geprägt (VUCA siehe Abschn. 1.3.). 2 Die Anzahl, Tiefe und Vernetzung von Digitalisierte und auf marktreifen Schlüsseltechnologien wie Schlüsseltechnologien setzende künstliche Intelligenz, Big Data Analytics, Unternehmen erzielen höhere Umsätze und Internet of Things, Robotics, kognitive höhere Betriebsergebnisse. Assistenzsysteme nimmt zu. 3 Die Kundenansprüche steigen in puncto Die Digitalisierung verändert traditionelle Flexibilität („on demand“), Lieferzeit, Geschäftsmodelle und stellt Unternehmen Kommunikation und Service. Zudem erwarten vor die Herausforderung, das eigene immer mehr Kunden eine nahtlose Geschäftsmodell zu digitalisieren oder um Bereitstellung von Angeboten über eine ein digitales Geschäftsmodell zu erweitern, gestiegene Anzahl an Kontaktpunkten hinweg. um wettbewerbsfähig zu bleiben. 4 Verringerte Margen aufgrund gestiegener Durch Digitalisierung der Angebotsvergleichsmöglichkeiten und Wertschöpfungskette und (intelligente) Preistransparenz sowie sozialem Feedback Vernetzung der Wertschöpfungsebenen sind Unternehmen in der Lage, ihre Entwicklungsprozesse zu verkürzen, ihre Produktion flexibler und ihr Marketing direkter zu gestalten. 5 Gestiegener Markdruckt durch höhere Digitalisierung verbessert die interne Reifegrade der Marktteilnehmer, die Kommunikation und Zusammenarbeit, Digitaltechnologien einsetzen Transparenz und Kontroll- und Steuerungsmöglichkeiten im Unternehmen und senkt auf diese Weise Risiken.

1.3

 ie VUCA Planungssicherheit und Kontrolle außer Kraft W setzt und Unternehmen mit Kontrollverlust und Unbestimmtheitssituationen umgehen

Die digitalisierte Gegenwart geht mit schlechterer Planbarkeit und Steuerbarkeit einher. Noch nie war das unternehmerische Umfeld so wenig greifbar wie heute. Dabei handelt es sich nicht um ein grundsätzlich neues Phänomen. Bereits in den 1990er-Jahren wurde beim amerikanischen Militär das Akronym VUCA als Beschreibung der veränderten Situation auf modernen Gefechtsfeldern geprägt. Statt klar abgegrenzter geordneter Fronten ergaben sich immer mehr unübersichtliche Konstellationen – teilweise auch mit nicht uniformierten Gegnern (Ropers 2018). Dementsprechend breitete sich VUCA als Begriff im Bereich der strategischen Führung aus. Heutzutage beschreibt das Akronym die erschwerten Rahmenbedingungen bei der Führung von und in Unternehmen. Gemeint ist damit ein Umfeld, dass geprägt ist von zunehmender Volatilität, Unsicherheit, Komplexität und Ambiguität.

1.3  Wie VUCA Planungssicherheit und Kontrolle außer Kraft setzt und Unternehmen …

11

Volatilität steht für hohe Schwankungsbreiten innerhalb eines unbeständigen Marktumfelds. In immer kürzeren Abständen erscheinen unerwartet neue Wettbewerber aus vor- oder nachgelagerten Wertschöpfungsstufen oder benachbarten Branchen am Markt. Die Umwelt entwickelt sich veränderlicher und sprunghafter. Zudem vergrößert sich der Umfang von Daten und Informationen rasant, die sich in Sekundenbruchteilen weltweit kommunizieren lassen und volatile Reaktionen auslösen können. Für Unternehmen geht dies mit einem Verlust von Planungssicherheit einher. Gleichzeitig verlieren mittel- bis langfristig ausgelegte Strategien an Relevanz. Die Unsicherheit in den Märkten nimmt zu, da die Veränderung von Marktumfeldern und Technologien immer schwieriger nachzuvollziehen ist und neue Entwicklungen weniger vorhersehbar auftreten. Es wird beschwerlicher zu antizipieren, wann sich Marktkonstellationen verändern werden oder in welche Richtung. Die Berechenbarkeit nimmt ab. Bisher stabile Umfelder können sich u. U. sogar drastisch verändern. Welche Bestandskunden werden morgen noch Kunden sein? Welche sind die Neukunden von morgen und welche Erwartungen haben diese an unser Unternehmen? Welche (disruptiven) Technologien werden zukünftig für das eigene Geschäft bedeutsam sein? Antworten zu finden auf diese Fragen, ist erfolgskritisch. Statt linear in eine Richtung zu agieren, wird es notwendig, in viele Richtungen zu denken und die Komfortzone zu verlassen, um Unsicherheitspfade abzubauen und Unsicherheit zu managen. Die Komplexität innerhalb und v. a. außerhalb von hochdifferenzierten Unternehmen steigt. Die ökonomische Liberalisierung der Märkte lässt Markteintrittsschranken sinken, um den freien Verkehr von Gütern, Geld, Menschen und Ideen zwischen Nationen und Industrien zu ermöglichen und zu vereinfachen (Hagel 2013). Globalisierung und Technisierung bedingen eine stärker vernetzte und verdichtete Welt. Sie lassen die Verbindungen zwischen Unternehmen und Menschen unaufhörlich zunehmen. So treten zunehmend mehr Abhängigkeiten auf. Weiterhin führen zunehmend fragmentierte Technologien, multioptionales Kundenverhalten und die steigende Vielfalt der Kommunikationswege zu einer Erhöhung der Komplexität von Kommunikation und Interaktion. Ambiguität beschreibt das Phänomen der Mehrdeutigkeit der Faktenlage. Diese macht falsche Interpretationen und Entscheidungen wahrscheinlicher. Steigende unternehmerische Optionen machen Aussagen weniger eindeutig, da Informationen nicht mehr klar zu interpretieren sind. Gestiegene Wissensbasen führen paradoxerweise zu einer Verschlechterung der Fähigkeit, Situationen richtig einzuschätzen, klare Ursache-Wirkung-­ Zu­ sammenhänge zu erkennen und Entscheidungen mit gewohnter Sicherheit zu treffen. Dadurch wird es immer schwerer zu beschreiben, welche Handlung was genau ausgelöst hat und was die Ursache, was die Wirkung ist. Entscheider haben es damit zunehmend schwerer, zutreffende und präzise Beurteilungen zu treffen. VOPA zum konstruktiven Umgang mit Unbestimmtheitssituationen Während in hochdynamischen Zeiten der Veränderung unsere individuelle Unsicherheitskurve ansteigt, nimmt in gleichem Maß unser Bedürfnis nach sicheren Entscheidungsgrundlagen, Risikominimierung und kontrollierbaren und verständlichen Arbeitskontex-

12

1  Digitale Transformation im künstlich intelligenten Zeitalter

ten zu. Weil durch die VUCA-Welt geschaffene Irritationen auf Dauer nur schwer auszuhalten sind, versuchen viele Menschen auf bekannte Verhaltensmuster und Lösungsansätze zurückzugreifen. Doch gerade die in der Vergangenheit bewährten Muster führen paradoxerweise nicht mehr zum gewünschten Erfolg. So stellt VUCA uns Menschen vor neue Herausforderungen. Und verlangt von uns „Anpassungen im Akkord“ (Vogel 2017). Ein Ansatz für den Umgang mit den VUCA-Wirkkräften, findet sich im VOPA-Modell von Willms Buhse wieder. Sein Akronym setzt sich aus den Begriffen Vernetzung, Offenheit, Partizipation, Agilität und Vertrauen zusammen (Buhse 2014; Petry 2016). Der Ansatz beschreibt, in welchen Bereichen sich Unternehmens- und Führungskulturen in der zunehmenden digitalisierten Gegenwart wandeln. VOPA steht für eine erhöhte Offenheit und Vernetzung von Kanälen, Ressourcen und Verantwortlichkeiten und eine neue Form der Kollaboration, bei der Wissen konsequent in der Organisation weitergegeben wird. VOPA weist Schnittstellen zu Modellen der Arbeitsorganisation auf, die sich unter New Work (Hackl et al. 2017; Sauter et al. 2018) und agiles Arbeiten (Redmann 2017) insbesondere in technologieorientierten Branchen etablieren. Während VUCA-Modelle die Ursachen dynamisierter und durch Unbestimmtheit charakterisierter Handlungskontexte in ihren Wirkungsweisen beschreiben, zielen VOPA-Modelle auf die Ausarbeitung von Strategien und Maßnahmen ab, um in fluiden, unbestimmten Umfeldern handlungsfähig zu bleiben. Dabei resultiert Unbestimmtheit aus der Erfahrung, dass vertraute Strukturen und Handlungsregeln nicht mehr greifen und Handlungssicherheit nicht mehr gewährleistet ist (Bolten und Berhault 2019). Zehn beispielhafte, charakteristische Merkmale im Kontext von VOPA

1. Teilung von Wissen und Erfahrung (Vernetzung) 2. Transparente Kommunikation und Information (Vernetzung) 3. Förderung von Experimenten und digitalen Innovationen im Spannungsfeld von Unvorhersagbarkeit und Freiheit (Offenheit) 4. Förderung von Selbstverantwortung und Selbststeuerung (Partizipation) 5. Bereitschaft zur Kollaboration (Partizipation) 6. Anpassung bisheriger Strukturen, um schneller und flexibler (re)agieren zu können (Agilität) 7. Iteratives Planen, Handeln und Reflektieren (Agilität) 8. Selbstwirksamkeit und Entscheidungsfreude (Agilität) 9. Aufbau von nachhaltigen Beziehungen (Vertrauen) 10. Entwicklung einer toleranten Fehlerkultur (Vertrauen)

Wenden Unternehmen die VOPA-Prinzipien an, bleiben die VUCA-Fliehkräfte zwar erhalten. Dennoch können Manager mit VOPA der Transformationsdynamik besser gerüstet und entschlossen gegenübertreten, um auch in ungewissen Situationen Entscheidungen

1.5  Digitale Mehrwerte als Voraussetzung für Digitalwachstum

13

so gut wie möglich zu treffen oder eine Reihe von Initiativen einfach mal agil auszuprobieren. Führungskräfte und Mitarbeiter können Fehler, die sehr wahrscheinlich auftreten werden, gelassener bewerten. Sie können akzeptieren, dass sich weniger Prozesse detailliert durchplanen lassen. Und, damit umzugehen, Maßnahmen unter Ungewissheit zu steuern – selbst wenn sie dabei über ein geringes oder gar kein Erfahrungswissen verfügen. Dazu bedarf es einer aufrichtigen Bereitschaft, sich von vertrauten Gewohnheiten zu verabschieden und sich auf neue Unbestimmtheitssituationen einzulassen.

1.4

Zwischen Effizienzsteigerung und Digitalwachstum

Digitalisierung steht unzweifelhaft für mehr als reine Elektrifizierung und Weiterentwicklung der hauseigenen IT-Infrastruktur und Applikationslandschaft. Vielmehr stellt sie Kunden- und Geschäftsnutzen durch Einsatz von Digitaltechnologie in den Mittelpunkt des unternehmerischen Handelns. Und damit auch messbare Fortschritte über alle Geschäftsfelder und Organisationsbereiche hinweg. Bei Digitaltechnologien wird KI allen anderen Technologien voran gehen und  Schritt für Schritt zum festen Bestandteil des neuen Betriebsmodells. Verstehen Unternehmen die komplexer werdende digitale Transformation gesamtheitlich, treiben sie eine kontinuierliche Überprüfung und Neuausrichtung ihrer Organisation voran: Sie modernisieren, rekonfigurieren und erneuern die bis­ herige Wertschöpfungskette, Geschäftslogik und Kundenbeziehung und setzen sich systemisch mit den für sie relevanten Schlüsseltechnologien  vor dem Hintergrund von Geschäfts- und Kundennutzen auseinander. Unternehmen realisieren Geschäftsnutzen, wenn sie im Rahmen von digitalen Effizienz­ initiativen ihre Betriebskosten EBIT-wirksam senken. Sie stellen ihre IT-Infrastruktur und Technologielandschaft auf den Prüfstand und modernisieren diese falls notwendig. Dabei automatisieren sie interne und externe Prozesse und verbessern die interne Kommunikation und Zusammenarbeit über digitale Tools, sodass Prozesskosten zusätzlich sinken. Unternehmen realisieren Kundennutzen, wenn sie ihr Produktportfolio durch Digitalisierung modernisieren und neue, einzigartige digitale Geschäftsmodelle, Digitalprodukte oder Services entwickeln, die ihren Kunden messbare Mehrwerte bringen. In Tab. 1.2. finden sich beispielhafte Fragestellungen zu Steigerung von Wirtschaftlichkeit oder Erlösen im Zuge der digitalen Transformation.

1.5

Digitale Mehrwerte als Voraussetzung für Digitalwachstum

Mit Old Economy werden die klassischen, überwiegend physisch agierenden Industrien bezeichnet, die materielle und greifbare Güter herstellen. Dies beinhaltet in Deutschland v. a. die Maschinenbau-, Automobil-, Bau- oder Chemieindustrie. Dagegen unterscheiden

14

1  Digitale Transformation im künstlich intelligenten Zeitalter

Tab. 1.2  Zehn beispielhafte Fragestellungen zu Steigerung von Effizienz und Wachstum 1 Wertschöpfungskette: In welchen Unternehmensbereichen lässt sich Effizienzsteigerung die Prozesslandschaft durch Vereinfachung, Transparenz, Standardisierung und Automatisierung optimieren? Welche papierbasierten oder manuellen Prozesse können digitalisiert werden? 2 Ressourcenauslastung: Wie lassen sich mithilfe digitaler Technologien Belastungsspitzen und Unterauslastung verringern? 3 Daten: Wie lassen sich Daten besser sammeln, auswerten und nutzen, um die vorhandenen Ressourcen besser einzusetzen? 4 Hardware- und Software-Einsatz: Welche Kosteneinsparungspotenziale lassen sich durch den Einsatz neuer Technologien, wie beispielsweise Service-Robotik, Robotic Process Automation oder Chatbots, erzielen, die sich positiv auf das Betriebsergebnis auswirken? 5 Produktionsflexibilität: Wie lässt sich die Produktion durch Auslagerung von Geschäftsprozessen in die Cloud flexibilisieren? Digitalwachstum 6 Neue Zielgruppen: Welche ganz neuen, digitalaffinen Zielgruppen lassen sich gewinnen, die bislang nicht im Fokus der Aufmerksamkeit standen? Welche bislang unentdeckten Probleme und Bedürfnisse sind durch bessere Datenauswertung erkennbar? 7 Mehrwertüberprüfung: Welche aktuellen Informationen, Produkte und Serviceleistungen sehen die Kunden als selbstverständlich an? Und welche neuen Digitalleistungen schaffen nachweislich welche Mehrwerte? 8 Kundennutzensteigerung: Wie lassen sich zusätzliche Umsatzpotenziale durch ergänzende oder neue Kundennutzen erschließen? 9 Touchpoints und Kundenerlebnisse: Welche Kundenkontaktpunkte schaffen herausragende Kundenerlebnisse und die nachweislich größte Kundenzufriedenheit? Wie lässt sich sicherstellen, dass herausragende Kundenerlebnisse auf allen kundenrelevanten Touchpoints generiert werden? 10 Geschäftsmodell: Wie lassen sich neue Umsatzpotenziale durch digitale Geschäftsmodellveränderungen oder ‑erneuerungen erschließen? Sollte das bisherige Geschäftsmodell digitalisiert werden oder brauchen wir künftig zusätzlich ein digitales Geschäftsmodell?

sich Unternehmen der sog. New Economy von diesen Unternehmen dadurch, dass ihr Geschäftsmodell im Kern auf Internet- oder Datentechnologie basiert. Im Kern unterscheiden sich beide Formen durch die Art der produzierten Güter: klassische Waren vs. digitale Güter (Institut für Innovation und Technik 2017). Eine erfolgsversprechende Digitalstrategie setzt auf Digitalwachstum über digitale Geschäftsmodelle und digitale Güter. Im engeren Sinn lassen sich diese als (künstlich intelligente) Webtechnologien, Datenanalysetechnologien, Programmierverfahren und softwarebasierte Geschäftslogiken in Form von digitalen Produkten, Services und Plattformen

1.5  Digitale Mehrwerte als Voraussetzung für Digitalwachstum

15

charakterisieren. Wird Software oder Hardware mit analogen Komponenten kombiniert, können sog. hybride digitale Innovationen entstehen. Über reine Software hinausgehend haben sie das Potenzial, den Kundennutzen zu erweitern. Ein modernisiertes Hufeisen, das mit zusätzlichem Chip und Sensorik ausgestattet ist und durch die Kombination aus analoger und digitaler Welt Mehrwerte generiert, wäre demnach eine hybride digitale Innovation. Erfolgreiche digitale Innovationen stiften Kunden einen oder mehrere überzeugende Mehrwerte in Form von Funktionen, Interaktionen oder Inhalten. Dabei kann das Digitale als Mittel zum Zweck verstanden werden. Denn erst wenn durch Einsatz von neuer Technologie Kundennutzen generiert wird, entsteht ein Wert. Daher liegt der Fokus jeder einer digitalen Innovation meist auf der Nutzenseite. Und nicht auf der Technologieseite und damit dem Soft- oder Hardwareeinsatz an sich. Wie digitale Innovationen und Technologien Mehrwerte schaffen Erfolgreiche digitale Innovationen basieren auf Vorteilen, die durch Technologieeinsatz erzeugt werden. Konkret bedeutet dies, dass sie kundenrelevante Mehrwerte in Form von Kernnutzen und Nebennutzen kreieren. Der Kernnutzen ist der Grund dafür, warum ein Produkt, Service oder eine Lösung von Kunden genutzt, gekauft und weiterempfohlen wird und sich deshalb im Markt verbreitet. Nebennutzen entscheiden dagegen nicht primär über Nutzung oder Kauf, doch wirken sie sich verstärkend auf die Gesamtattraktivität und Alltagsrelevanz einer Erneuerung aus. Die Tab. 1.3. zeigt die gesamte Bandbreite von 20 Nutzendimensionen für neue digitale Marktangebote. Jede einzelne Dimension hat das Potenzial, bei Kunden Begehrlichkeiten zu wecken, um entweder Nutzungs- und Kaufanreize zu schaffen oder zur Kundenbindung beizutragen.

Tab.  1.3    Zwanzig Mehrwertdimensionen im Kontext von  Digitalwachstum mit digitalen Innovationen Mehrwertdimensionen 1. Zeitersparnis 2. Geldersparnis 3. Zusatzerlös 4. Bequemlichkeitsgewinn 5. Komplexitätsreduktion 6. Informationsvorsprung 7. Qualitätsvorteil 8. Sicherheitsvorteil 9. Gesundheitsvorteil 10. Verlässlichkeit bzw. Langlebigkeit

11. Individualisierbarkeit bzw. Flexibilität 12. Verfügbarkeit 13. Sofortige Nutzbarkeit 14. Ökologischer Nutzen 15. Sozialer Nutzen 16. Ästhetischer Nutzen 17. Hedonistischer Nutzen 18. Image- bzw. Reputationsgewinn 19. Selbstverwirklichungsgewinn bzw. Persönlichkeitsentwicklung 20. Unterhaltung

16

1  Digitale Transformation im künstlich intelligenten Zeitalter



Digitale Mehrwerte

„Bei digitalen Innovationen ist das „Digitale“ oder die „neue Technologie“ Mittel zum Zweck. Erst wenn die digitale Erneuerung bei Anwendern und Kunden einen relevanten Nutzen generiert, entsteht ein Wert. Daher liegt der Fokus jeder Digitalen Innovation auf der Kundennutzenseite und nicht auf der Technologieseite und damit auf Soft-oder HardwareEinsatz an sich.“

1.5  Digitale Mehrwerte als Voraussetzung für Digitalwachstum

17

Schneller, fokussierter und weniger kapitalintensiv Digitale Innovationsmethoden wie Lean Start-up, Running Lean, Design Thinking oder Rapid Design haben sich bereits in vielen Innovationsetagen etabliert. So können Unternehmen im ersten Schritt herausfinden, ob die erwarteten Mehrwerte ihrer neuen digitalen Geschäftsideen unter realen Marktbedingungen bei Zielkunden resonieren. Dazu überprüfen sie die kritischsten Geschäftsannahmen, entwickeln ihr neues Digitalangebot in Schnellbootmanier und testen es bei Kunden in früher Phase. Die Minimalprodukte sind vom Umfang her schlank und spitz ausgerichtet. Und die Technologie dahinter technisch-­ funktional ist zunächst noch nicht vollständig ausgereift. Agil, iterativ und kundennah entstehen innerhalb weniger Wochen bis Monate kleinste vermarktbare Angebote. Die Vorteile der schnellen Markteinführung überwiegen klar gegenüber langen, gewissenhaften Produktplanungs- und Produktentwicklungsphasen. Denn früh zu lernen, was gut funktioniert oder schlecht funktioniert, ist wichtiger, als ein perfekt vorausgedachtes, vollumfängliches Produkt. Sobald die neuen digitalen Angebote erfolgreich im Markt angenommen werden, ermöglichen neue Erkenntnisgewinne bei Geschäftsmodell, optischer Anmutung, Ausstattungsmerkmalen, Vermarktung oder Kundenakzeptanz zu einer schrittweisen Weiterentwicklung und Ausweitung der Geschäftsidee, um den Ausbau der digitalen Innovation weiter anzukurbeln. Start-ups setzen auf künstliche-Intelligenz-basierte Innovationen Die meisten Start-ups, die heutzutage gründen, setzen bei ihren digitalen Innovationen auf Kundennutzen durch Datenanalyse und künstlich intelligente Datennutzbarmachung. Zudem  arbeiten sie sich immer stärker in die Kernindustrien vor. Laut BITKOM sind die Gründer fast einstimmig der Ansicht, dass ohne KI und Datenanalyse kein wirtschaftlicher Erfolg mehr möglich sein wird. Eine Erhebung des Digitalverbands unter 300 Gründern zeigte 2018, dass 60 % Big Data und Datenanalyse in ihrem Start-up nutzten und bereits 43 % KI einsetzten. Ein Drittel der befragten Start-ups diskutierte oder plante den zukünftigen Einsatz von KI. Und 96 % der Gründer sahen diese Technologien als essenziell an, um im Wettbewerb bestehen zu können (BITKOM 2018). Wachstum mit digitalen Innovationen Die digitalen Innovationen der Zukunft finden in einem hochdynamischen Umfeld mit immer tieferen und vernetzteren Technologien statt. Die steigende Technologiedichte und -breite öffnet Türen für neue Optionsräume und Geschäftschancen für Unternehmen. Daneben nehmen Markteintrittsbarrieren seit Jahren ab, sodass sich viele neue Digitalangebote mit hardware- oder softwarebasierter Geschäftslogik schnell und mit vergleichsweise geringen Kapitalzuflüssen und Programmierungskenntnissen realisieren lassen. Die Voraussetzungen für Unternehmen, mit digitalen Innovationen signifikantes Digitalwachstum zu realisieren, sind so gut wie nie zuvor und werden dazu führen, dass der Anteil an digitalen Innovationen im Gesamtportfolio der Unternehmen weiter steigen wird.

18

1.6

1  Digitale Transformation im künstlich intelligenten Zeitalter

 uf dem Weg zum intelligenten Unternehmen – zehn A Transformationsthesen für die 2020er-Jahre – das Zeitalter der künstlichen Intelligenz

In Gesprächen mit Führungsetagen nehme ich beim Thema beschleunigte Digitalisierung und erst recht beim Thema KI eine diffuse Unbehaglichkeit wahr. Möglicherweise spiegelt sich darin die Erkenntnis wider, dass der technische Fortschritt unsere Wirtschaftswelt, so wie wir sie seit Jahrzehnten kennen, massiv verändern könnte. Oder dass die Geschwindigkeit der Veränderungen schneller zunehmen könnte, als das eigene Unternehmen da­ rauf reagieren kann. Oder dass die steigende Komplexität der sich überlappenden Transformationsebenen zwischen Menschen, Technologien, Strukturen und Prozessen nur mit beachtlichen Anstrengungen zu durchdringen und meistern ist. Ich kann dieses Gefühl von Unbehaglichkeit gut nachvollziehen. Denn die zunehmende  Veränderungsgeschwindigkeit fordert uns nicht mehr nur heraus. Sie wird unsere menschliche und auch die organisatorische Anpassungsfähigkeit an Grenzen bringen. Aus diesem Grund lege ich Unternehmenslenkern einen frühzeitigen und bedachtsamen Einstieg in die technologische und kulturelle Transformation der nächsten Generation an Herz  - um ihre Organisation  mit kühlem Kopf und strategischem Geschick auf die vor uns liegenden umwälzenden Veränderungen der kommenden zwei Jahrzehnte vozubereiten und eine zum Wettbewerb überlegene Marktposition aufzubauen. Nachhaltige Erfolge werden Unternehmenslenker mit KI insbesondere dann erzielen, wenn sie die Schlüsseltechnologie zentral in ihre Unternehmensstrategie einbinden und in Einklang mit den bestehenden Prozessen und der Kultur bringen. Zudem kann die Chefetage das Potenzial von KI dann voll entfalten, wenn sie eine klare Vorstellung davon hat, welche Probleme KI für sie lösen soll, um das bestehende Geschäftsmodell strategisch zu stärken, zu optimieren oder zu erneuern. Weiter als ein paar Jahre in die Zukunft zu schauen, gilt im Allgemeinen als wenig ratsam, da es viele Unvorhersehbarkeiten gibt. Aber ist das kommende Jahrzehnt wirklich so schwer zu antizipieren oder sind viele große Themen bereits absehbar? Mit Blick auf Mitte bis Ende der 2020er-Jahre stelle ich hier zehn Transformationsthesen auf, die naturgemäß eine gewisse Unschärfe beinhalten. Nichtsdestotrotz möchte ich Sie damit zu einer frühzeitigen Auseinandersetzung mit zukunftsrelevanten Themen einladen. Und Ihnen darüber hinaus ein Gefühl davon vermitteln, welche Wucht an Veränderungen uns bereits in nicht allzu ferner Zeit erreichen könnte. 1. Transformation der menschlichen Arbeit: Nach der Prozessdigitalisierung und Prozessautomatisierung folgt die vernetzte, unterstützende, automatisierte und autonome künstlich intelligente Wertschöpfung. Diese wird die Beschäftigung von menschlicher Arbeitskraft weg, hin zu maschineller Arbeitskraft verschieben. Durch die ansteigende Kommunikation zwischen Maschine und Maschine sowie Maschine

1.6  Auf dem Weg zum intelligenten Unternehmen – zehn Transformationsthesen für …

19

und Umwelt wird sich die Allokation von Ressourcen entlang neuer Wertschöpfungsketten in einer durchgängig digitalisierten Welt tiefgreifend verändern. Ob es im Jahr 2030 30 %, 50 % oder 70 % sein werden, lässt sich nicht gesichert voraussagen  – dennoch gilt eine Spanne zwischen 30 und 70 % laut bisheriger Studienlage als wahrscheinlich. Bildschirmarbeitsplätze mit wenig anspruchsvollen, immer gleichen Aufgaben werden perspektivisch vollständig ersetzt. So wird die Arbeitskraftverschiebung in den 2020er-Jahren deutlich sichtbarere Spuren hinterlassen als in den 2010er-­ Jahren. Viele heutige Berufsbilder werden sich in ihrem Aufgabenspektrum von denen in zehn Jahren unterscheiden. Und neue Berufsbilder werden entstehen und den Wegfall an menschlicher Arbeitskraft teilweise oder ganz auffangen. Dass mehr neue Arbeitsplätze entstehen als bestehende wegfallen, halte ich mittelfristig gesehen für weniger wahrscheinlich. Sollte die Differenz durch die maschinelle Transformation im zweistelligen Prozentbereich liegen, ist Ende der 2020er-Jahre ein Szenario denkbar, bei dem Unternehmen verpflichtend Maschinen- oder Robotersteuer entrichten, um wegfallende Steuereinnahmen von menschlicher Arbeitskraft zu kompensieren und um Menschen, die durch die Arbeitskraftverschiebung ihren Job verlieren, aufzufangen. Unabhängig davon werden wir verstärkt ethische Debatten führen, um Technologiefolgen durch KI ausgewogen einzuschätzen und zu entscheiden, welche Technologieentwicklung wir zukünftig wollen und welche nicht. 2. Transformation von Aufgaben und Fähigkeiten: Die Arbeit wird zunehmend agil, vernetzt, virtuell und in Kollaboration mit Roboterkollegen erbracht. Denn auf diese Weise lassen sich vielfach bessere Ergebnisse in kürzerer Zeit erzielen und komplexer werdende Zustände effizienter  handhaben. Neben den Aufgaben werden sich auch die geforderten Fähigkeiten signifikant verändern. Je mehr Aufgaben sich mit KI und weiteren Technologien unterstützen und automatisieren lassen, desto stärker wird der Fokus auf den ureigenen, menschlichen Schlüsselfähigkeiten liegen: Das Lösen komplexer Probleme, Kreativität, kritisches Denken, Empathie und Neugier erhalten noch mehr Gewicht als bisher. Die Arbeit wird Beschäftigten höhere technologische und soziale Kompetenzen abverlangen. Verändern wird sich zudem die Art der Informationsweitergabe und Kommunikation über den Einsatz von Software. Viele Informationen, die heute noch von Mensch zu Mensch kommuniziert werden, werden computergestützt in virtuellen Arbeitsumgebungen und situativen Kontexten automatisch zur Verfügung stehen und die Leistungserbringung verändern. Um alles, was sich einfach messen, auswerten, interpretieren und ausführen lässt, brauchen sich die Beschäftigten von morgen nicht mehr zu kümmern. Ab 2025 könnten Smartphones, Tablets und Apps zunehmend durch künstlich intelligente, sprach- sowie gegen Ende der 2020er-­Jahre auch neuronal steuerbare Systeme und Umgebungen ersetzt werden, wenn diese eine schnellere und bequeme Aufgabenerledigung und Problemlösung ermöglichen. Intelligente Umfelder werden sich automatisch situativ auf uns einstellen und unser bislang manuelles Ausführen von alltäglichen Anwendungen ersetzen.

20

1  Digitale Transformation im künstlich intelligenten Zeitalter

3. Beschleunigender technologischer Fortschritt: Die Vernetzung und mehrfache Überlappung der 20 Schrittmacher-, Schlüssel- und Basistechnologien unserer Zeit, von denen etwa zwei Drittel bereits einen hohen technologischen Reifegrad aufweisen und Kommerzialisierung erfahren haben, wird dazu führen, dass sich der technologische Fortschritt noch stärker beschleunigt als bisher. Es sind nicht mehr die Dampfmaschine, die Elektrizität oder der Personal Computer allein die Treiber, sondern ein komplexes Konglomerat aus miteinander verflochtener, datenverarbeitender Hard- und Software unterschiedlicher Technologiegattungen, das seine Beschleunigungskraft ausspielt. Dabei wird eine Hand voll tiefer Schlüsseltechnologien zu einem sehr spürbaren Wandel beitragen: Allen voran steht KI, gefolgt von Big-­ Data-­Analytics, Internet der Dinge, digitalen Zwillingen, (Software-)Robotik und autonomen Transportsystemen. Sollte sich Quantum Computing noch in den 2020er-Jahren als kommerzialisierbar darstellen, vervielfacht sich die Beschleunigung zusätzlich. So veröffentlichte Google 2019 kurzzeitig, dass ihr Quantenchip eine Aufgabe, für die normale Rechenserver 114 Millionen Jahre gerechnet hätten, nur zehn Minuten brauchte. Es ist nicht auszuschließen, dass die Geschwindigkeit der technologischen Veränderungen die Wandlungsfähigkeit vieler Organisationen und Menschen in bestimmten Lebens- und Arbeitsbereichen übersteigen wird. 4. Transformation der Kundenbeziehungen: Der kundenzentrierten Organisation, die ihre Kunden auf allen relevanten Kundenkontaktpunkten nahtlose und nachhaltige Erlebnisse bietet, folgt die kundenwunschantizipierende Organisation. Ein Großteil der Kunden wird sich mit der fortlaufenden immer präziseren Kundendatenerfassung und -analyse abgefunden haben, wenn sie ihnen nützt. Daher werden Unternehmen neben zentral erfassten Kundenverhaltensdaten und verlässlichen Prognosemodellen darauf setzen, noch mehr Werte und Erkenntnisse aus erfassten Daten zu ziehen. Damit werden Daten und KI-basierte Dateninterpretationen zum unerlässlichen Sprungbrett für noch erfolgreichere Kundenbeziehungen. Unternehmen, die ihre Daten verstehen und konsequent Kundennutzen daraus generieren, werden in der Lage sein, ihre Marktanteile über die Ausschöpfung zusätzlicher Differenzierungspotenziale im Wettbewerb auszubauen. Mit Hilfe von KI werden sie eine höhere Marktdurchdringungsrate und Kundenprofitabilität erreichen. 5. Transformation der Geschäftsmodelle: Digitale Herausforderer werden die klassischen Geschäftsmodelle noch stärker unter Druck setzen als bisher. Analoge Geschäftsmodelle werden ohne Ausnahme digitalisiert (werden müssen) und um neue digitale Geschäftsmodelle erweitert: Es findet eine Geschäftsmodellverschiebung zugunsten ausschließlich digitaler Geschäftsmodelle statt. Hybride Geschäftsmodelle werden zum Standard. Kein Unternehmen wird es sich in den 2020er-Jahren noch leisten können, auf ein digitalisiertes Geschäftsmodell zu verzichten. KI als Querschnittstechnologie wird sich nahezu in jeder Geschäftsmodelllogik wiederfinden, wenn diese auf Basis von Daten richtige maschinelle Schlüsse zieht und Vorhersagen immer zuverlässiger treffen kann. Je tiefgreifender KI dabei in die DNA des Unternehmens eingreift und Effizienz- und Kundenvorteile generiert, desto besser wird das

1.6  Auf dem Weg zum intelligenten Unternehmen – zehn Transformationsthesen für …

21

Unternehmen in der Lage sein, seine Wettbewerbsvorteile gewinnbringend einzusetzen. Unterstützende oder automatisierende  KI  wird innerhalb des Geschäfts­ modells  nur  eine Zwischenstufe sein, bevor vollständig autonome KI-­ Geschäftsmodelle von „Pure AI-Playern“ die nächste Evolutionsstufe von intelligenten Geschäftsmodellen bilden. Darüber hinaus wird KI bei Unternehmen ganz neue,  für uns heute noch unbekannte, Geschäftslogiken und  Wertquellen schaffen -  mit neuen  Differenzierungsmerkmalen in puncto  Wertschöpfung, Kundenutzen oder Ertragsmechanismus. 6. Transformation der operativen Exzellenz und Return on Algorithm: Eine erfolgreiche operative Umsetzung der Geschäftsstrategie lässt sich mithilfe der in diesem Buch beschriebenen digitalen Transformationsdisziplinen und Technologieeinsatz erreichen. Während sich die digitale Transformation der ersten Generation im Wesentlichen durch  digitalisierte Prozesse der Leistungserbringung, digitale Neuausrichtung von Kundenbeziehungen, digitale Denkweisen und Arbeitswerkzeuge sowie digitale Geschäftsmodelle kennzeichnen liess, wird die nächste Generation die bei der Digitalisierung erzeugten Daten veredeln und Wertschöpfungsketten künstlich intelligent weiterentwickeln, rekonfigurieren oder ganz neu definieren („eating and enriching data to create value“). Oliver Süme vom eco - Verband der Internetwirtschaft spricht hier von automatisierender künstlicher Intelligenz als Vorstufe von Maschinen, die vollständig eigenständig in Richtung festgelegter Ziele agieren.  Diese automatisierende, teil- und künftig vollautonome KI wird nahezu alle Branchen stärker wandeln als bisher und Unternehmen ganz neue datenbasierte Effizienzchancen ermöglichen. KI-Softwares werden im Gegensatz zu traditionellen Vermögenswerten, die im Zeitverlauf an Wert verlieren, zu neuen, wertsteigernden Vermögenswerten des operativen Geschäftsbetriebs. Dazu werden Unternehmen auf neue Metriken setzen, um ihren Return on Algorithm (ROA) zu bestimmen. Dieser beschreibt Wertzuwächse durch verschiedene in Kombination eingesetzte Modelle und Algorithmen abzüglich der  Initialaufwände und fortlaufende  Kosten zur Weiterentwicklung der künstlich intelligenten problemlösenden Prozeduren. 7. Transformation der Diskussion und Entscheidungsfindung: Hierarchisch aufgestellte Unternehmen werden ihre jahrzehntelang vorherrschende Entscheidungssouveränität verlieren. Aufgrund der Zunahme von Informationskomplexität, Ambiguität von Informationen und Unberechenbarkeit zukünftiger Einflussfaktoren wird die Entscheidungssicherheit immer weiter abnehmen und Führungskräfte herausfordern, ihre Entscheidungen unter Unsicherheit und damit potenziell falsch zu treffen. Dezentrale Entscheidungsfindungsprozesse werden zum probaten Mittel der Wahl, wenn diese eine höhere Güte haben als hierarchisch geprägte – gepaart mit der Empfehlung durch künstlich intelligente Systeme, die im Lauf der 2020er-Jahre zuverlässiger werden und die menschliche Entscheidungsgüte häufig übertreffen. Wenn es Unternehmen gelingt, dass KI auf breiter Basis angenommen wird, erweitern viele Mitarbeiter auf allen Hierarchieebenen durch die Empfehlungen von Alogorithmen ihr eigenes Gespür und Urteilsvermögen (Fountaine et  al. 2019). Und dennoch wird

22

1  Digitale Transformation im künstlich intelligenten Zeitalter

Führung nicht obsolet. Vor dem Hintergrund von Urteilsvermögen und Vorwegnahmefähigkeit wird sie weiterhin eine ganz zentrale Rolle spielen, um die notwendigen ­Veränderungsprozesse in Unternehmen erfolgreich zu steuern.  Die Führungskräfte von morgen werden sich somit von der Maschine kognitiv unterstützen lassen. Einen Vorschmack auf die künstlich intelligente Unterstützungsleistung zeigt IBM mit dem Project  Debater.  Die  Cloud-basierte KI-Plattform wertet  die die Meinungen von Menschen zu einem Thema aus, um daraus eine kollektive Pro- und Contra-Haltung zu bilden. Zukünftig soll die Maschine auf Augenhöhe in einer Diskussion mit Menschen argumentieren können. Damit erweiterte der Technologiekonzern bereits 2018 die Grenzen der Maschinenintelligenz  als eines der ersten  Systeme, das mit Menschen über komplexe Themen diskutieren kann. Dabater soll Menschen dabei  unterstützen, logisch  zu denken, fundierte  Argumente vorzubringen und bessere Entscheidungen zu treffen. 8. Hohe Adaptivität und Geschwindigkeit werden zu zentralen strategischen Stellgrößen für unternehmerischen Erfolg: Nicht das Unternehmen mit den größten Eigenkapitalreserven, der größten Marktverwurzelung und den klügsten Mitarbeitern macht Unternehmen langfristig allein zukunftsfähig, sondern dessen Fähigkeit, marktverändernde und erfolgskritische Entwicklungen frühzeitig vorauszusehen und ange­ messen schnell und tiefgreifend darauf zu reagieren. Der zielgerichtete Einsatz aufstrebender Schlüsseltechnologien und die organisationsweite Anwendung agiler Arbeitsweisen verschaffen Unternehmen im Zuge des Unternehmensumbaus Atempausen. Zusätzlich ist Veränderungsintelligenz gefragt. Nach Professor Baltes werden Unternehmen eine neue Qualität von Wandlungsfähigkeit erreichen (müssen), um den Wandel des Wandels zu meistern. Ein besonderer Treiber des Wandels sind die neuen Generationen, deren Wertevorstellungen, Lernverhalten und Einstellungen sich  deutlich von den älteren Generationen  unterscheiden. Jüngere digital-affine Menschen sind viel schneller bereit, neue Entwicklungen aufzunehmen sowie Verhalten und Gewohnheiten zu verändern. Als Konsequenz wandeln sich Kundenverhalten und -erwartungen sehr deutlich und manchmal auch radikal – auf jedem Fall jedoch in viel kürzerer Zeit (Baltes und Freyth 2017). Sich erfolgreich verändernde Unternehmen werden folglich die Lücke, die durch bescheunigte Marktveränderungen entsteht, zu verkleinern wissen. Sie werden sich schneller an die verändernde Umgebung anpassen können als ihre Wettbewerber.  9. KI-Kollege oder KI-Kollegin als festes Mitglied des Managementteams: Der Führungskreis des Unternehmens  wird bei regelmäßigen Treffen mittelfristig nicht auf Computerintelligenz am Tisch verzichten wollen. Sobald dem Top-Management die Vorteile durch Einsatz von KI-Softwaresystemen nachvollziehbar, greifbar und messbar dargestellt werden kann, wird die Entscheidung zur testweisen KI-Managementunterstützung fallen. Bis auf das Aussehen der neuen Maschine – hier sind Ausprägungen von kleinen Sprachboxen, die auf Konferenztischen stehen, bis zum Robotergestell mit einem menschlichen Gesicht auf seinem Display vorstellbar – wird die anfängliche Skepsis mit der Zeit weichen. In natürlicher Sprache wird das  – zum

Literatur

23

Schutz von vertraulichen, sensiblen Informationen von der IT-Abteilung extra gesicherte – KI-System von Führungskräften so angesprochen, als wäre es ein menschlicher ­Kollege oder eine menschliche Kollegin. Die Management-Board-Machine wird in natürlicher Sprache antworten und darüber hinaus bei Bedarf Informationen auch visuell präsentieren, um die künstlich intelligent gesprochenen Botschaften über einen weiteren Ausgabekanal anzureichen. Durch die maschinelle Erweiterung des Managementteams steigt die Echtzeitverfügbarkeit von Informationen zu speziellen, komplexen  und schwer überschaubaren Fragenstellungen im ersten Schritt. Jahre später steigt mittels KI zudem die gesamtheitliche Entscheidungsqualität des Boards. Denn die Prognosemodelle des KI-Kollegen werden Jahr für Jahr verlässlicher und besser, sodass dessen „Stimme“ nach der Eingewöhnungsphase mehr Gewicht bei Managemententscheidungen erhalten dürfte. Die vorgelebte KI-Verstärkung des Top-­ Managements wird zudem ein eindeutiges Signal hinsichtlich einer offenen KI-Kultur in die Organisation senden, um für die Chancen durch Mensch-Maschine-­ Kollaboration zu werben. 10. Mensch-Maschine-Innovation: Die nächste Evolutionsstufe des Innovationsmanagements wird die in der Cloud von Menschen generierten Ideen und Daten mit KI-Services und bisher unentdeckten Mustern kombinieren. KI wird so zum Treiber von technologischen Innovationen. Integrierte KI-Softwares werden bisher nicht erschlossene  Marktlücken  sowie unerfüllte  Kundenbedarfe und -bedürfnisse genauer als wir Menschen identifizieren können und eine verlässliche Eintrittswahrscheinlichkeit in Prozent ausgeben, wie erfolgreich sich ein neues Produkt oder ein neuer Service kommerziell im Markt etablieren lässt oder der Markt für disruptive Geschäftschancen bereit ist. KI wird zum Mittel für maschinelle Innovationsveredelung. Nach der Feststellung von Bedarfs- und Bedürfnislücken bei den Zielgruppen, wird sie helfen,  die identifizierten Lücken zu Geschäftschancen  zu verdichten. Sie wird genauere Prognosen zur erfolgreichen Marktdurchdringung und -verbreitung neuer Geschäftsideen möglich machen. Und die menschlichen Kollegen dabei untersützen, neue digitale Produkte und Services wertiger auszugestalten. In Summe wird KI die strategische Innovationskraft von Unternehmen ökonomisch messbar stärken.

Literatur Baltes, Guido; Freyth, Antje (2017): Veränderungsintelligenz: Agiler, innovativer, unternehmerischer den Wandel unserer Zeit meistern, Springer Gabler, Wiesbaden Berg, Achim (2018): Digitalisierung der Wirtschaft, BITKOM, https://www.bitkom.org/sites/default/files/pdf/Presse/Anhaenge-an-PIs/2018/Bitkom-Charts-Digitalisierung-der-Wirtschaft-06-06-2018-final.pdf. Zugegriffen: 01.12.2018 Bitkom (2018): Startups  – Ohne KI und Datenanalyse kein wirtschaftlicher Erfolg, https://www. bitkom.org/Presse/Presseinformation/Startups-Ohne-KI-und-Datenanalyse-kein-wirtschaftlicher-Erfolg.html. Zugegriffen: 20.11.2018

24

1  Digitale Transformation im künstlich intelligenten Zeitalter

Bolten, Jürgen; Berhault, Mathilde (2019): VUCA-World, virtuelle Teamarbeit und interkulturelle Zusammenarbeit, in: Interkulturalität digital – Digitalisierung interkulturell, ibidem, Stuttgart Buhse, Willms (2014): Management by Internet: Neue Führungsmodelle für Unternehmen in Zeiten der digitalen Transformation, Börsenmedien, Kulmbach Fountaine, Tim; McCarthy Brian; Saleh, Tanim (2019): Wie Unternehmen KI richtig nutzen, Havard Business Manager, 12/2019, S. 72–84 Hackl, Benedikt; Wagner, Marc; Attmer, Lars; Baumann, Dominik (2017): New Work: Auf dem Weg zur neuen Arbeitswelt, Gabler, Wiesbaden Hagel, John (2013): Wie Peter Drucker über Komplexität dachte, Harvard Business Manager, 6. September 2013, http://www.harvardbusinessmanager.de/blogs/peter-f-drucker-und-die-konsequenzen-des-wandels-a-919908. Zugegriffen: 10.09.2018 Hoberg, Patrick; Krcmar, Helmut; Welz, Bernd (2017): Skills for Digital Transformation, Research Report, Technische Universität München Institut für Innovation und Technik (2017): Die Rolle der Normung 2030 und Gestaltungsoptionen unter Berücksichtigung der technologiespezifischen Besonderheiten der IKT in der Normung und Standardisierung, iit Projekt Nr. 70/15, im Auftrag des Bundesministeriums für Wirtschaft und Energie BMWi, Berlin Kroker, Michael (2015): Digitale Transformation – 100-Milliarden-Dollar-Markt bis 2020 mit „Winner-takes-it-all“-Effekt, http://blog.wiwo.de/look-at-it/2015/03/17/digitale-transformation-100-milliarden-dollar-markt-bis-2020-mit-winner-takes-it-all-effekt. Zugegriffen: 24.08.2018. Oswald, Gerhard; Krcmar, Helmut (2018): Digitale Transformation – Fallbeispiele und Branchenanalysen, Springer Fachmedien, Wiesbaden Petry, Thorsten (2016): Digital Leadership: Erfolgreiches Führen in Zeiten der Digital Economy, Haufe Lexware, Freiburg Redmann, Britta (2017): Agiles Arbeiten im Unternehmen. Rechtliche Rahmenbedingungen und gesetzliche Anforderungen, Haufe Lexware, Freiburg Ropers, Jens (2018): VUCA im Spannungsfeld der Digitalisierung – Potenzial für den Controller als Change Agent, https://www.controllerakademie.de/news/vuca-im-spannungsfeld-der-digitalisierung-potenzial-fuer-den-controller-als-change-agent. Zugegriffen: 01.09.2018 Sauter, Roman; Sauter, Werner; Wolfig, Roland (2018): Agile Werte- und Kompetenzentwicklung. Wege in eine neue Arbeitswelt, Gabler, Heidelberg Vogel, Melanie (2017): VUCA lebt: ein Synonym für Unsicherheit und Chaos, https://futability. wordpress.com/2017/06/09/vuca-lebt-ein-synonym-fuer-unsicherheit-und-chaos. Zugegriffen: 20.11.2018 Wolan, Michael (2013): Digitale Innovation: Schneller. Wirtschaftlicher. Nachhaltiger. Business Village, Göttingen

2

Künstliche Intelligenz verändert alles

Zusammenfassung

KI ist die sich am schnellsten beschleunigende Zukunftstechnologie unserer Zeit. Leise und still ist sie im Markt angekommen und arbeitet unauffällig im Hintergrund. Medial rückt sie seit Jahren in den Vordergrund. Und dies völlig zu Recht: Denn die technologische Evolution entwickelt sich durch ihr exponontielles Wachstum bald über eine Million Mal schneller als die biologische Evolution. In der Folge verändert sie branchenübergreifend die bisherigen Wertschöpfungslogiken und Ertragsmodelle in Unternehmen. Dort übernehmen intelligente Maschinen nicht mehr nur physische Arbeit, wie in den vergangenen Jahrhunderten. Erstmals in unserer 10.000-jährigen Zivilisationsgeschichte wird uns eine Technologie bei unserer Kopfarbeit assistieren: unsichtbar, unhörbar, unfühlbar und trotzdem effizient und kraftvoll. In einigen, spitzen Bereichen ist KI uns Menschen schon weit überlegen. Weitere Bereiche werden folgen – aus vertikaler künstlich intelligenter Überlegenheit wird schrittweise eine horizontale und intuitive. KI-Technologien werden Unternehmen in den bewegenden 2020er-Jahren massiv beeinflussen und sie in ihrer ursprünglichen DNA irreversibel verändern. Sind es heute noch Hunderte verschiedener Einsatzmöglichkeiten, werden es morgen und übermorgen Tausende sein. Noch nie zuvor war das Zusammenspiel von Strategie, Analytik und Technologie so wichtig wie heute. Für Top-Manager ist es daher unerlässlich, zu verstehen, in welchen Bereichen die disruptive Schlüsseltechnologie konkrete Geschäftsoder Kundennutzen oder mit anderen Worten, positive, ökonomische Effekte generiert. Mit den Erkenntnisgewinnen können sie besser darüber befinden, wie sie KI und weitere Zukunftstechnologien strategisch richtig nutzen, um ihr Unternehmen entschlossen, mit gebündelten Kräften und notwendigen Ressourcen in die bevorstehende historisch einzigartige Ära zu führen: Eine Ära, bei der sich Menschen und intelligente Maschinen passgenau miteinander verbinden und erfahrungsbasierte, intuitive Entscheidungen durch datenbasierte angereichert werden.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Wolan, Next Generation Digital Transformation, https://doi.org/10.1007/978-3-658-24935-9_2

25

26

2  Künstliche Intelligenz verändert alles

Unsere Wirklichkeit besteht aus einem Mix aus Beziehungen, Gefühlen, Überraschungen, Anblicken, Bewegungen oder Stimmungen. Intelligent zu sein, bedeutet aus diesem Durcheinander Sinn zu gewinnen und sinnvoll zu handeln. Bisher war diese Intelligenz ausnahmslos uns Menschen vorbehalten. Doch das konkurrenzlose Zeitalter der menschlichen Intelligenz geht unsichtbar zu Ende. Zerlegt in unvorstellbar viele Daten und wieder zusammengesetzt mithilfe  von Softwarelogiken, schreibt KI mit maschinellem Lernen und automatisiertem, intelligentem Verhalten ein neues Kapitel der Technologiegeschichte. Und dies derart stürmisch, denn die technischen Fortschritte waren in den letzten Jahren gewaltig. Im direkten Vergleich mit menschlichen Fähigkeiten ist KI heute in der Lage, in Teilbereichen ähnlich wie ein Mensch zu agieren, kognitiv und rational wie ein Mensch zu denken und Probleme wie ein Mensch zu lösen (Schmidhuber 2018). Was ist künstliche Intelligenz? Für das Marktforschungsunternehmen Gartner steht KI für hochentwickelte softwaregestützte Systeme, die autonom verstehen, lernen, vorhersagen, sich anpassen und zudem potenziell ausführen. Die KI-Pioniere Agrawal, Gans und Goldfarb setzen KI gleich mit Maschinen, die zu bekannten Daten neue Daten hinzufügen zu einer neuen Form künstlich generierter Information. In der Gründerszene sehen viele Entrepreneure KI als integrativen Bestandteil an, der sich in den meisten Softwares befindet – auch wenn diese nach außen nicht erkennbar ist. Dabei kann KI bis zum denkenden Computer mit intelligentem Problemlösungsverhalten als auch bis zum zukünftig autonomen hochentwickelten Roboter reichen, bei dem KI Daten analysiert, aus Mustern und Beispielen lernt, Wahrscheinlichkeiten ableitet und Prognosen trifft. cc Künstliche Intelligenz  beschreibt hoch entwickelte Softwaresysteme, die selbstständig verstehen, lernen, vorhersagen, adaptieren und handeln. Sie befasst sich mit der Automatisierung von Mechanismen des menschlichen Denkens und Verhaltens (Intelligenz), dem maschinellen Lernen und der autonomen Aufgabenerledigung. Dabei verarbeiten und lernen die Systeme neue und unbekannte Daten selbstständig, lassen diese in ihr Modell einfließen und passen ihr System an neue Umweltbedingungen an. Wendepunkt in der Menschheitsgeschichte Der Harvard-Doktorand, MIT-Luftfahrtingenieur und Berater von Google und NASA, Peter Diamandis, leitete bereits 2012 her, dass KI, Computertechnik, Nanomaterialen, Robotik und synthetische Biologie sowie weitere exponentiell wachsende Technologien uns Menschen in den kommenden 20 Jahren mehr Zugewinne bringen werden, als es in den letzten 200 Jahren der Fall war (Diamandis und Kotler 2012). Dabei wird der heutige Megatrend KI einen Wendepunkt in der Technologiegeschichte einnehmen. Sie wird die disruptivste aller 20 Schlüsseltechnologien im den 2020er-Jahren sein und hat das Potenzial zum Game Changer innerhalb der Wirtschaft. Branchen, die es nicht schaffen, KI-Technologie schnell und weitreichend zu adaptieren, laufen Gefahr, Anschluss zu verlieren. Dies ist wohl der Grund dafür, warum das Harvard Business Review („The Age of AI“), Google’s CEO Sundar Pichai („A.I. is more important than fire or electricity“), der CEO

2.2  Ökonomie: Künstliche Intelligenz verändert Wertschöpfung und Geschäftslogiken

27

von Nvidia Jensen Huang („Software eats the world, but AI is going to eat the Sofware“), der Co-Direktor der MIT Initiative on the Digital Economy, Andrew McAfee, („The Second Machine Age“) oder der Futurologe Lars Thomsen („Warum selbst einem Zukunftsforscher die Zeit davonläuft“) das künstlich intelligente Zeitalter einläuten, in dem Bereiche des menschlichen Kognitionsvermögens unaufhaltsam auf künstlich intelligente Maschinen übertragen werden. Im Zusammenspiel mit weiteren Schlüsseltechnologien hat KI das Potenzial, so gut wie jeden Wirtschafts- und Lebensbereich zu erfassen, militärische Machtverhältnisse zu verändern und bisherige Geschäftsmodelle neu zu definieren. Vermutlich deswegen, sieht der KI-Pionier und Standford-Professor Andrew Ng in KI „die neue Elektrizität“, der MIT-Professor Max Tegmark „eine neue Existenzform“ (Tegmark 2017) und Oxford-University-Professor Nick Bostrom „die ersten Schritte zur Superintelligenz“.

2.1

 echnologie: Exponentielles Wachstum von T Maschinenintelligenz

Das steigende Interesse an KI lässt sich anhand enormer technologischer Entwicklungen erklären. In den letzten zehn Jahren ist die Rechenkapazität durch Fortschritte in der Miniaturisierung und Hardwaretechnik etwa 1000-fach gestiegen. In Bezug auf KI wiesen die OpenAI-Informatiker Danny Hernandez und Dario Amodei einen noch drastischeren Anstieg nach. Sie untersuchten die Steigerung der Rechenleistung in den größten KI-­ Projekten wie AlexNet, Seq2Seq, Deep Speech  2, Neural Architecture Search oder AlphaGo Zero im Zeitraum zwischen 2012 und 2017 und berechneten eine Steigerung um Faktor 300.000. Demnach verdoppelte sich die Rechenleistung nicht wie im zwischenzeitlich überholten Mooreschen Gesetz etwa alle 12–24  Monate, sondern bereits innerhalb von 3,43 Monaten. Dies entspricht einer Steigerung von Faktor 12 verglichen mit der von Gordon Moore formulierten Gesetzesmäßigkeit. Liegen die Forscher mit ihren Berechnungen richtig, wächst die KI-Rechenleistung exponentiell. Den gigantischen Sprung ­sehen die Forscher nur z. T. in leistungsfähiger Hardware. Der weitaus größere Anteil sei den KI-Entwicklern zuzuschreiben, die immer neue Mittel und Wege fänden, um mehr Performance aus der bestehenden Hardware auszuschöpfen. Und weil darüber hinaus viele Start-ups auf dem Gebiet der KI-Chip-Entwicklung aktiv sind, wird sich der die Rechenleistung beschleunigende Trend vermutlich auch in den kommenden Jahren weiter fortsetzen (Amodei und Hernandez 2018). Zudem werden neben leistungsfähigeren Analysewerkzeugen auch die analysierbaren Datenmengen täglich größer.

2.2

 konomie: Künstliche Intelligenz verändert Wertschöpfung Ö und Geschäftslogiken

Wohin uns KI führt und welches der zukünftige Zweck eines Unternehmens ist, gehören zu den spannenden Fragen zu Beginn unseres Jahrtausends. In Anlehnung an die Wirtschaftsnobelpreisträger Ronald Coase und Oliver Williamson existieren Unternehmen, um

28

2  Künstliche Intelligenz verändert alles

komplexe Formen von ökonomischen Aktivitäten auf effiziente Art und Weise zu koordinieren. Wenn die Computertechnologien wie KI die Fähigkeit entwickeln, Transaktionskosten zu vereinfachen und wegzurationalisieren, lassen sich immer mehr Arbeiten über künstlich intelligente Aufgabenbearbeitung erledigen. Und traditionell gemanagte Unternehmen, die kaum oder keine menschliche Arbeitskraft mehr benötigen, werden obsolet (Birkinshaw 2018). In ihrer 2018 veröffentlichte KI-Studie, verweisen die Kollegen von McKinsey darauf, dass KI das globale Bruttoinlandsprodukt bis 2030 zusätzlich um durchschnittlich 1,2 % pro Jahr steigern könnte. Mit dieser Prognose würde KI den jährlichen Wachstumseffekt übertreffen, den seinerzeit Dampfmaschinen (+0,3 %), Industrieroboter (+0,4 %) und die Verbreitung der Informations- und Kommunikationstechnologien (+0,6 %) erzielten. Die Analysten kamen zu der Ansicht, dass bis 2030 ein zusätzlicher globaler Wertschöpfungsbeitrag in Höhe von 13.000 Mrd. $ möglich sei (Bughin et al. 2018). Die Kollegen von PWC veröffentlichten 2018 die Studie „Sizing the prize. What’s the real value of AI for your business and how can you capitalise?“. Darin sagen die Analysten einen erheblichen Wachstumsschub durch KI-basierte Anwendungen und Innovationen voraus. Somit kann Deutschland bis 2030 mit einem Anstieg des Bruttoinlandsprodukts durch KI von 11,3 % rechnen – das entspräche einer Summe von 430 Mrd. US$. Weltweit könnte das Bruttoinlandsprodukt um 14 % bzw. 15.700 Mrd. US$ ansteigen. Im Ausblick profitie­ ren China und die USA am deutlichsten: Laut Studie dürfte die chinesische Wirtschaft allein durch KI bis 2030 um 26,1 % und damit um 7000 Mrd. US$ anwachsen. Und Nordamerika um 14,5 %, folglich 3700 Mrd. US$. Das Marktforschungsunternehmen IDC prognostizierte ein weltweites Umsatzvolumen für KI-Systeme in 2021 von rund 46  Mrd.  US$. Das Unternehmen schätzte, dass 2019 etwa 40 % der digitalen Transformationsinitiativen KI-Anwendungen berücksichtigen und dieser Anteil branchenunabhängig bis 2021 auf 75 % ansteigen wird. In seiner 2018 veröffentlichten Studie schätzt das Marktforschungs- und IT-­Research-­ Unternehmen Gartner den globalen Geschäftswert von KI für 2018 auf 1200 Mrd. US$. Im Jahr 2022 werden KI-Tools eine Wertschöpfung von 3900 Mrd. US$ generieren. Gartner sieht drei Felder, bei denen KI-gestützte Anwendungen zur Steigerung des Geschäftswerts beitragen können: Kundenerlebnisse, Ertragssteigerung und Kostensenkung. In den kommenden Jahren werden laut der Analysten zunächst Kostensenkungen und anschließend verbesserte Kundenerlebnisse die primären KI-Treiber sein. Weiterhin geht Gartner davon aus, dass sich Unternehmen ab 2021 zunehmend darauf konzentrieren werden, KI einzusetzen, um Zusatzerlöse mit bestehenden Produkten zu generieren oder um ganz neue intelligente digitale Produkte und Dienstleistungen zu entwickeln. Das Bundesministerium für Wirtschaft und Energie (BMWi) analysierte 2018 die durch KI generierte zusätzliche Bruttowertschöpfung des produzierenden Gewerbes. Es kam zu dem Ergebnis, dass die KI-Wertschöpfung, auf die nächsten fünf Jahre gerechnet, bei 32 Mrd. € liegen und damit in etwa ein Drittel des gesamten prognostizierten Wachstums ausmachen wird. Der Studie nach werden im produzierenden Bereich rund 25 % der Großunternehmen und rund 15 % der kleinen und mittleren Unternehmen (KMU) KI-Technologien einsetzen. Das Ministe-

2.3  Arbeit: Artificial Coworkers substituieren menschliche Tätigkeiten

29

rium erkannte Deutschland im internationalen Vergleich bei Qualitätskontrolle, intelligenter Automatisierung und intelligenter Sensorik, der Erkennung und Verarbeitung von Sprache sowie der Modellierung kognitiver Eigenschaften eine führende Rolle zu. Hemmnisse sah es im Mangel an KI-Fachkräften, beim zögerlichen Transfer von Forschungsergebnissen in die Wirtschaft und bei zu geringen Ausgründungen aus dem Wissenschaftssystem heraus (BMWi 2018). Künstliche Intelligenz als Transformationsbeschleuniger Der technische Fortschritt und der steigende Technologieeinsatz in Unternehmen hat eine neue Generation der Digitalwirtschaft hervorgebracht. Sprechen wir von Digitalisierung im engeren Sinn, sind häufig moderne und untereinander vernetzte Systeme aus Hardware und Software sowie die Erschließung von durch Digitaltechnologie entstandene Möglichkeiten gemeint. In technologischer Hinsicht wird KI neben Robotik, Internet der Dinge und Big Data Analytics zukünftig diejenige Schlüsseltechnologie sein, die die digitale Transformation von Unternehmen am stärksten beschleunigen wird. Als Querschnittstechnologie wird KI nahezu alle Unternehmen in den kommenden Jahren dazu veranlassen, sich technologisch, prozessual, kapazitativ und produktbezogen noch stärker und intelligenter zu transformieren als bisher. KI ist daher DIE zentrale Schlüsseltechnologie des nächsten Jahrzehnts. Sie wird zahlreiche Unternehmensfunktionen von Grund auf verändern. Laut John-David Lovelock von Gartner werden die meisten KI-Anwendungen bis 2022 zunächst Nischenlösungen sein, die spezifische Bedarfe gut abdecken. Vor diesem Hintergrund werden Unternehmen vermutlich in KI-gestützte Produkte und Lösungen investieren, die von Tausenden hochspezialisierten Anbietern mit spezifischen KI-Anwendungen stammen (Gartner 2018).

2.3

 rbeit: Artificial Coworkers substituieren menschliche A Tätigkeiten

Die Kollaboration zwischen Mensch und Maschine wird unsere Arbeitswelt entscheidend prägen. Maschinen nehmen uns seit Jahrhunderten Handgriffe ab. Aber was passiert, wenn sie intelligent sind und als kollaborative Roboter, kurz CoBots, in ihrer Aufgabenerledigung besser und günstiger werden als ihre menschlichen Kollegen? Diese Frage bekommt zunehmend Gewicht. Denn KI-Systeme haben in den letzten Jahren Dinge zustande gebracht, die noch vor zehn Jahren weit entfernt schienen. Für diese Systeme ist es heutzutage keine Herausforderung mehr, in sehr großen Datenmengen auffällige Muster zu erkennen, Zusammenhänge aufzudecken und einfache logische Schlüsse zu ziehen. Sie werden nicht müde oder krank und arbeiten - abgesehen von den typischen IT-Problemen, die jedes Unternehmen kennt - zuverlässig. Und sie lernen in atemberaubender Geschwindigkeit hinzu. KI lässt künftig nicht nur Taxis, Busse oder Bahnen autonom fahren, Suchanfragen besser beantworten, Gebäude intelligent machen oder Kundenverhaltensprognosen verbessern. Es gilt heute als gesichert, dass KI in Form von intelligent veredelter Hardware, Software und Systemlandschaften eine Reihe von Tätigkeiten in Unternehmen automatisieren und Schritt für Schritt ersetzen wird. Die durch digitalisierte Organisationsstrukturen freige-

30

2  Künstliche Intelligenz verändert alles

setzten Kapazitäten lassen sich dann in Bereiche umwidmen, die Unternehmen einen ökonomisch höheren Wert stiften. Blicken wir auf das kommende Jahrzehnt, wird der Anteil der Tätigkeiten, die potenziell durch Computer erledigt werden könnten, jedes Jahr ansteigen. Damit entwickeln sich KI in den 2020er-Jahren zu unverzichtbaren Assistenzsystemen im Kontext unternehmerischer Aufgabenerledigung und Entscheidungsfindung. Fallbeispiel KI in der Buchhaltung

In der Buchhaltung werden KI-Algorithmen nach Erlangung ihrer kommerziellen Marktreife und Verbreitung im Markt die meisten Belege exakt und positionsgetreu erkennen, automatisiert kontieren, Zahlungen ausziffern, Anomalien wie Preisabweichungen einzelner Artikel sowie verschiedene Logos zuverlässig erkennen und Belege automatisiert verbuchen. Neben der Wiedererkennung dessen, was bereits vorhanden ist, wird die KI-Software damit umzugehen wissen, was nicht oder nur annähernd erkennbar ist, indem sie über Methoden wie Fuzzylogic lernt, Unschärfen besser zu deuten und zu beherrschen (CEBIT 2017). Damit wird KI die Mitarbeiter in der Buchhaltung zunehmend von Routineaufgaben entlasten. Sie wird unauffällige, aber trotzdem relevante Kennzahlen sicher identifizieren oder zukünftige Finanzierungslücken verlässlich prognostizieren – alles Dinge, die mit dem bloßen menschlichen Auge nur schwer erkennbar sind. Bis 2025 wird es zu einer Aufgabenverschiebung kommen. Statt mit der Belegverarbeitung werden sich Buchhalter in der kommenden Dekade stärker mit anspruchsvolleren He­ rausforderungen auseinandersetzen müssen, die die intelligente Maschine automatisch auf ihre Agenda setzt.

Fallbeispiel KI im Personalmanagement

In der Personalabteilung werden KI-Algorithmen nach Erlangung ihrer kommerziellen Marktreife und Verbreitung im Markt einen Großteil der Betriebsabläufe in der Personalabteilung automatisiert und abteilungsübergreifend steuern. Die Aufgaben der KI-­ Software werden sich verschieben  – von der Unterstützung der HR-Businesspartner weg – hin zur autonomen Erledigung der meisten Personalverwaltungsaufgaben. Ein Zutun der Personalabteilung wird nur noch in wenigen Fällen notwendig sein: meist bei seltenen oder komplexen Anforderungen, die aus Kostengründen noch keinem Standardisierungsprozedere unterworfen wurden. Beim Recruiting werden KI-Softwares anzeigen, wie gut neue Bewerber zur Firmenkultur und Unternehmensanforderungen passen. In wenigen Sekunden werden die Programme Sprache, Sprechgeschwindigkeit und aufgezeichnete Inhalte des Bewerbers auswerten und Persönlichkeitsanalysen erstellen, für die Psychologen in Verbindung mit Assessment Centers mehrere Stunden bis Tage brauchten. Auf Grundlage eines einzigen Telefonats zwischen dem Computerprogramm und einem Bewerber werden die lernenden Algorithmen alle bisherigen Erfahrungen aus vergangenen Stellenbesetzungen in ihre Einstellungsentscheidung einfließen lassen. Dennoch wird die Maschine in vielen Unternehmen Bewerber noch nicht selbstständig auswählen, son-

2.3  Arbeit: Artificial Coworkers substituieren menschliche Tätigkeiten

31

dern eine auf Maschinenintelligenz basierte, qualifizierte Vorauswahl passender Kandidaten inklusive Scoring zusammenstellen. Die Einstellungsentscheidungen selbst werden dagegen noch lange Zeit von verantwortlichen Führungskräften getroffen. Um profitables Wachstum sicherzustellen, haben fast alle Unternehmen in den vergangenen Jahren Effizienzprogramme umgesetzt. Im Ergebnis führten viele Programme zu einem Ausstieg aus bestimmten Märkten oder dem Einsatz neuer Schlüsseltechnologien. Darüber hinaus wurden automatisierbare oder auslagerbare Stellen abgebaut. Diese Entwicklung könnte sich künftig beschleunigen, denn die digitale Transformation überführt unsere Lebens- und Arbeitswelt sukzessive auf eine digitale Ebene (Appelfeller und Feldmann 2018). Arbeitsverschiebung von Mensch zu Maschine Das Institut für Arbeitsmarkt und Berufsforschung IAB hat sich der Frage angenommen, wie stark menschliche Arbeit durch Computerintelligenz ersetzbar ist. In seiner 2018 veröffentlichen Studie „Substituierbarkeitspotenziale von Berufen“ kommt es zum Ergebnis, dass Computer im Jahr 2016 bereits ganze 58 % der Helferberufe hätten übernehmen können. Auch im Fachkräftesegment lag die Zahl bereits bei 54 % und in Spezialistenberufen bei 40 %. Lediglich bei Expertenberufen sah das Institut die potenzielle Übernahmegefahr durch Computerintelligenz 2016 auf einem Niveau von 24 % – im Vergleich zu 19 % im Jahr 2013. Damit stieg die Substitutionsgefahr aus Mitarbeitersicht, die Chance auf Effizienzsteigerung aus Arbeitgebersicht und die Steigerung der Leistungsfähigkeit aus Techniksicht in nur drei Jahren deutlich an. Mit solchen Zahlen legen die IAB-­Forscher nahe, dass mit enormen und rasanten Veränderungen der Beschäftigtenstruktur in U ­ nternehmen gerechnet werden kann. Die Analysten begründen die Veränderung damit, dass seit 2013 mehrere neue Technologien zwischenzeitlich die Marktreife erlangt hätten und für zusätzliche Umwälzungsdynamik sorgten. Sie prognostizierten, dass auf lange Sicht etwa 70 % aller Tätigkeiten durch künstlich intelligente Computer oder computergesteuerte Maschinen übernommen werden könnten. Dennoch wird KI die menschliche Intelligenz in absehbarer Zeit nicht völlig aus dem Berufsleben verdrängen. Vielmehr sei eine hohe Ersetzbarkeit als Signal für zukünftige Anpassungsbedarfe zu verstehen. Zudem ist es schwer vorstellbar, dass Unternehmen alle Substitutionspotenziale ausschöpfen, auch wenn es technologisch grundsätzlich möglich wäre. Zum einen stehen der Prozessautomatisierung rechtliche oder ethische Bedenken gegenüber. Zum anderen ist die KI-­Technologie in der heutigen Zeit nicht zwangsläufig immer günstiger als ihr menschlicher Gegenspieler. Zu einem ähnlichen Bild kamen die Ökonomen Michael Osborne und Carl Frey bereits 2013, als sie in ihrer vielzitierten Studie berechneten, wie stark rund 700 Berufe von der Automatisierung bedroht sind. Sie kamen zu dem Ergebnis, dass 47 % der Amerikaner einem hohen Risiko ausgesetzt sind, ihren Arbeitsplatz an einen Algorithmus oder Roboter zu verlieren (Frey und Osborne 2013). Mit ihrer polarisierenden These stießen die Forscher kontroverse Diskussionen an, als sie von einem kleineren Anteil hochqualifizierter Gewinner und einem größeren Anteil geringqualifizierter Modernisierungsverlierer sprachen.

32

2  Künstliche Intelligenz verändert alles

Dazu illustrierten sie den Wandel durch Digitalisierung am Beispiel der größten US-Unternehmen im Jahr 1990 und 2014. Damals erlösten die drei größten Automobilkonzerne in Detroit 1990 zusammen 250 Mrd. US$ bei 1,2 Mio. Beschäftigten. Fast 25 Jahre später erzielten die drei größten Unternehmen des Silicon Valley 2014 ebenfalls fast 250 Mrd. US$ Umsatz. Dies allerdings nur mit 137.000  Mitarbeitern. Da sich der Wandel auch durch Protektionismus nicht rückgängig machen ließe, empfahlen die Ökonomen den Unternehmen in der heutigen Zeit, dass sie versuchen sollen, den digitalen Wandel zu managen. In ihrer 2017 veröffentlichten Studie sagten die Beraterkollegen von McKinsey voraus, dass im Jahr 2030 jede vierte Arbeitsstunde und um das Jahr 2055 herum jede zweite Arbeitsstunde durch Automatisierung wegfallen könnte. Dieser Prognose zufolge könnten 12 Mio. Arbeitsplätze in Deutschland wegfallen (Donath 2017). Allerdings trägt der demografische Wandel in Deutschland auch dazu bei, dass 2030 etwa drei Millionen weniger Arbeitskräfte verfügbar sein werden. Die Berater sahen deutliche Unterschiede bei der Automatisierung innerhalb der Berufsfelder und prognostizierten, dass lediglich unter 5 % aller Branchen von einer vollständigen Substitution betroffen sein werden. Eine Welle der Arbeitslosigkeit sei nicht zu erwarten. Denn wo alte Stellen wegfallen, entstehen neue. Weiterhin sind deutliche Produktivitätszuwächse nur dort möglich, wo Mensch und Maschine zusammenarbeiteten. In ihrer 2018 veröffentlichten Studie „Putting faces to the jobs at risk of Automation“ verwiesen OECD-Wissenschaftler darauf, dass beinahe jeder fünfte Arbeitnehmer in Deutschland in den kommenden 15–20 Jahren durch Roboter und intelligente Software ersetzt werden könnte. Weitere 36 % der Beschäftigten müssen sich darauf einstellen, dass sich Arbeitsalltag und Aufgaben dramatisch ändern werden. Damit würden mehr als 60 % aller Arbeitnehmer durch Roboter ersetzt oder gezwungen sein, sich auf einen erheblich anderen Arbeitsalltag einzustellen. Im ersten Schritt könnten durch Robotik und KI einfachere Tätigkeiten wie Küchenhilfen, Reinigungspersonal oder Helfertätigkeiten wegfallen. Zusätzlich würden auch Arbeiter im Bau, in der Industrie und in der Logistik durch Maschinen und Software ersetzt. Die Forscher gaben zu bedenken, dass v. a. jüngere Menschen mit hoher Wahrscheinlichkeit stärker von Automatisierung betroffen sein könnten als ältere, da Algorithmen und Maschinen künftig viele Routinetätigkeiten übernehmen, die typisch für Einstiegsjobs sind. Dagegen würden komplexere Tätigkeiten häufiger älteren Kollegen vorbehalten sein, wie Entscheidungen fällen, Verträge aushandeln oder andere beraten. Der Gründer der rasant wachsenden chinesischen Handelsplattform Alibaba, Jack Ma, verwies in einem Vortrag darauf, dass die Menschen sich auf erhebliche Umbrüche im Arbeitsmarkt vorbereiten sollten, weil die KI die Welt verändern werde. Nach Ma würden die Schüler nicht für die Notwendigkeiten von morgen ausgebildet, sondern immer noch für eine Wirtschaft, die es bald nicht mehr gäbe: „The way we teach is going to be making our kids lose jobs in the next 30 years“. Daher bildeten die Schulen die Arbeitslosen von morgen aus. Für Ma mache es keinen Sinn, in Konkurrenz mit KI und Robotern treten zu wollen. Vielmehr sollten die Menschen dazu ausgebildet und weiterentwickelt werden, möglichst innovativ und kreativ zu sein (Horowitz 2017).

2.3  Arbeit: Artificial Coworkers substituieren menschliche Tätigkeiten

33

Bisherige Aufgaben werden ersetzt, neue Aufgaben entstehen Zukünftig werden wir weniger Menschen für die Arbeit – so wie wir sie heute kennen – brauchen. Dessen ungeachtet werden genügend Aufgaben übrig bleiben oder neu entstehen, die auf absehbare Zeit nur Menschen durchführen können. Dazu gehören die Fähigkeiten, Strategien zu entwickeln, andere Menschen zu führen, richtige Fragen zu stellen, Ergebnisse zu interpretieren oder ganz neue Dinge zu erfinden. Auch werden sich Einfallsreichtum und Innovationsgeist als typisch menschliche Eigenschaften nicht so schnell durch Computerintelligenz simulieren oder ersetzen lassen. Doch unabhängig davon, ob der Wandel weg von menschlicher Arbeitskraft hin zur Computerarbeitskraft künftig schneller oder langsamer vonstattengeht – er ist unaufhaltsam. So werden Algorithmen zu einer weiteren stufenweisen Verschiebung von menschlicher zu computerintelligenter Leistungserbringung führen und repetitive Routinetätigkeiten ganz sicher ersetzen. Deshalb besteht eine wesentliche Herausforderung der digitalen Transformation darin, eine ausreichende Anzahl von Fachkräften sicherzustellen, die für die jeweils aktuellen Arbeitsplatzanforderungen entsprechend qualifiziert sind (Dengler und Matthes 2018). Arbeit im Kontext vergleichbarer Transformationsprozesse der vergangenen Jahrhunderte Trotz vieler Veränderungen ist die Arbeit in den vergangenen 200 Jahren nicht verloren gegangen. Sie ist immer wieder neu entstanden. Auch in unerwarteter Form. Und zwar in Sprüngen und in Schüben. Das war im Zeitalter der Eisenbahn, im Zeitalter der Industrialisierung und im Zeitalter der Elektrifizierung so. Letzteres brachte damals sogar einen gigantischen Beschleunigungsschub. Der Historiker Andreas Rödder verweist auf einen ebenfalls starken Einschnitt um 1900 mit den neuen Medien. Durch Fotografie, Schallplatten und Film verlor der Augenblick seine Einmaligkeit, als optische und akustische Eindrücke mechanisch reproduzierbar wurden (Laudenbach und Rödder 2016). Auch damals erlebten die Menschen diese Medienrevolution als enorme Umwälzung. Ähnliche Erfahrungen machen wir heute bei der Echtzeitkommunikation – etwa 150 Jahre nachdem die ersten Telegrafenverbindungen zwischen Amerika und Großbritannien ihren Betrieb aufnahmen und als Kommunikationsmedien die Globalisierung vorantrieben. Nach der Telefonie kam das Internet. Und damit bekam die Kommunikation eine vielfach größere Quantität. Heute und morgen sind es die Algorithmen. Was im Vergleich zu früheren epochalen Transformationsprozessen neu ist, ist die durch den technischen Fortschritt gestiegene Dichte: Dichte in der Kommunikation, Dichte in der Information, Dichte in der Vernetzung und Dichte durch die Überlappung der Schüsseltechnologien unserer Zeit. Künstliche Intelligenz und Robotersteuer Durch KI verschieben sich ökonomische Gesetzmäßigkeiten. Roboter und intelligente Computerprogramme fordern kein Einkommen als Gegenleistung für erbrachte Wertschöpfung ein. Sie erwarten keine freien Tage und werden nicht krank. Wenn überhaupt, fallen sie höchstens technisch bedingt aus – dann aber nur kurzzeitig. Stand heute muss Computerintelligenz nicht sozialversichert oder versteuert werden. Was sich für Unternehmen vorteil-

34

2  Künstliche Intelligenz verändert alles

haft darstellt, ist gleichzeitig nachteilig für den Staat. Er bezieht zukünftig weniger Steuern und muss gleichzeitig jemanden unterstützen, der aufgrund von KI arbeitslos geworden ist. Das ist der Grund, warum sich Zukunftsforscher wie Lars Thomsen oder Jürgen Schmidhuber, aber auch Microsoft-Gründer Bill Gates oder der CEO von DHL Frank Appel für eine Robotersteuer einsetzen. Nach Professor Schmidhuber werden Roboterbesitzer Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine existenziell notwendigen Jobs mehr ausüben. Wer dies nicht bis zu einem gewissen Grad unterstützt, beschwöre geradezu die Revolution Mensch gegen Maschine herauf (Greiner 2017). Der Ökonom Professor Thomas Straubhaar hält dagegen. Eine Robotersteuer würde seiner Ansicht nach dazu führen, dass Jobs nicht an Roboter verlorengehen, sondern an das Ausland: „Wenn deutsche Arbeiter weiterhin besser verdienen sollen als chinesische, dann müssen sie auch pro Stunde mehr leisten. Damit sei eine Robotersteuer die dümmste Antwort auf die Veränderungen, die sich durch die Digitalisierung ergeben“ (Glasfort 2018). Stattdessen schlägt Straubhaar eine Wertschöpfungsabgabe in Höhe von 50 % vor, die anfällt, sobald Unternehmen Gewinne auszahlen – entweder in Form von Löhnen an die Mitarbeiter oder Kapitalerträgen an die Eigentümer. Gleichzeitig würden in diesem Modell Lohnsteuern und Sozialabgaben entfallen. Wirtschaftsinformatiker Professor Oliver Bendel betont in diesem Zusammenhang, dass bei einer Robotersteuer schwierige Unterscheidungen zu treffen sind. Demnach sei unklar, ob es dabei um ausschließlich um Hardware- oder auch um Softwarerobotik ginge. Weiterhin hält er es für problematisch, dass moderne Roboter vernetzte Systeme darstellten und viele Kollaborationsroboter recht eng mit Menschen zusammenarbeiteten. Daher sei es schwierig zu berechnen, wo die Arbeit des Roboters beginne und wo sie aufhöre. Faktor Mensch bleibt noch lange bedeutsam Wie bei jedem Wandel durch technologischen Fortschritt spielt der Faktor Mensch weiterhin die bedeutsamste Rolle. Noch lange wird es Aufgaben und Herausforderungen geben, die selbst die intelligentesten Programme nicht leisten können. Auch dann nicht, wenn sie mit großen Datenmengen trainiert werden. Solange intelligente Maschinen überwiegend aus der Vergangenheit lernen und noch nicht in der Lage sind, sich ihre oder unsere Zukunft vorzustellen, stehen wir Menschen bei der fortwährenden digitalen Transformation zweifelsfrei im Fokus. Denn gerade auch in intelligenten Unternehmen der Zukunft werden die urmenschlichen Fähigkeiten wie Flexibilität, Kreativität, Liebenswürdigkeit, Neugier und emotionale Intelligenz ohne Zweifel erforderlich sein (McDermott 2018).

2.4

 ffektivität: Wie intelligente Maschinen immer empathischer A werden

Affective Computing, auch bekannt für Emotion AI oder empathische KI, steht für ein Forschungsgebiet innerhalb von Cognitive Computing und KI, das sich mit dem Sammeln und Auswerten von Daten aus Gesichtern, Stimmen und Körpersprache beschäftigt, um mensch-

2.4  Affektivität: Wie intelligente Maschinen immer empathischer werden

35

liche Erregungs- und Gemütszustände zu messen. Im Zentrum steht, Mensch-­Maschine-­ Schnittstellen so zu entwickeln, dass intelligente Maschinen den emotionalen Zustand ihrer Anwender genau erkennen, um angemessen darauf zu reagieren (Rouse 2018). Digitale Interaktionen werden humanisiert. Sie machen KI menschlicher und sympathischer. Dazu sammeln Emotion-KI-Programme über optische, akustische oder physiologische Systeme in Wearables Fundstellen zu den emotionalen Zuständen ihrer Nutzer aus einer Vielzahl von Quellen, wie Gesicht, Körperhaltung, Mimik, Gestik, Atmung, Sprache, Hauttemperatur, Herzfrequenz, Pupillenerweiterung oder Körpertemperatur. • Gesicht: Unser Gesicht wird via 3D-Texturanalyse (wieder-)erkannt und interpretiert: Welche Gesichtszüge lassen auf welches Gefühl schließen – Stichwort Mimikresonanz? • Blick: Wie lange schauen wir wohin? Eine vergrößerte Pupille gibt Auskunft über den Grad unserer Erregung. • Körperhaltung: Wie aufrecht stehen wir? Wirkt die Haltung unsicher, souverän, nervös, gelangweilt, abwehrend oder verliebt? • Muskeltonus: Wirken wir stark angespannt, angespannt, entspannt oder total entspannt? • Atmung: In welcher Atemfrequenz und Atemamplitude atmen wir gerade? • Sprache: Sprechen wir schnell oder langsam, aufgeregt oder entspannt, laut oder leise? • Puls: Schlägt unser Herz langsam, normal, schneller oder schnell? • Hauttemperatur: Auch unsere Hauttemperatur wird erfasst und bewertet – Infrarotbilder zeigen an, ob wir entspannt, erregt, gesund oder krank wirken. • Texte: Sind sie eher positiv oder negativ geschrieben? Welche Begriffe oder Emoticons verraten den aktuellen emotionalen Zustand ihrer Verfasser? Die Maschinen werden uns immer ähnlicher – sie werden, wie wir selbst sind Woran denken wir? Was fühlen wir? Sind wir gerade glücklich, traurig, wütend, ängstlich, eifersüchtig oder überrascht? Sind wir momentan unter- oder überfordert? Unsere digitalen intelligenten Wegbegleiter werden es zukünftig wissen. Noch bevor es uns selbst bewusst wird. Die perzeptiven Erkennungssysteme entwickeln sich seit Jahren verlässlicher. Sie  erkennen Mikrogesten mit hochfiligranen Nuancen richtig und leiten eine angemessene Reaktion ein. Je nach Zielsetzung greifen sie auf unterschiedliche Datenquellen zurück, um die gewünschte Klassifizierung durchzuführen und eine Reaktion einzuleiten. Unscheinbar werden uns die Maschinen immer ähnlicher – sie lernen empathisch auf uns zu reagieren. Der NASA-Forscher Dr. Cuck Jorgensen prognostizierte 2014, dass intelligente maschinelle Analysesysteme etwa zwischen 2023 und 2025 zuverlässiger und präziser messen und auswerten werden, als wir es selbst können. Damit würde mit steigender maschineller emotionaler Intelligenz schrittweise unsere emotionale Privatsphäre schwinden, mit der Folge, dass sich auch unsere sozialen Mechanismen, die unsere emotionalen Reaktionen prägen, ändern werden.

36

2.5

2  Künstliche Intelligenz verändert alles

Wettkampf: Wer gewinnt die „Global AI Challenge“?

Mit Blick auf die vergangenen fünf Jahre zeigt das Analysewerkzeug Google Trends fast eine Verzehnfachung der Suchanfragen zu KI und verweist auf die verwandten Themen Deep Learning, Big Data und Digitalisierung. Neben dem Megatrend Digitalisierung, ist KI zum absoluten Megatrend geworden. USA liegen bei Investitionen in künstliche Intelligenz noch vorn „Wer KI beherrscht, beherrscht zukünftig die ganze Welt“, warnte Russlands Präsident Wladimir Putin und gesteht damit ein, dass es Staaten gibt, die seinem Land technologisch überlegen sind (Holland 2017)  – wie die beiden KI-Vorreiter-Nationen: das liberal-­ kapitalistische Silicon Valley und die autoritär-kapitalistische Volksrepublik China. Der Blick auf die Investitionssummen in KI zeigt, dass Europa deutlich zurückliegt. Laut Manager Magazin investierte Nordamerika 2016 rund 20 Mrd. $, Asien 10 Mrd. $ und Europa rund 3,5 Mrd. $ in künstlich intelligente Systeme. Globale Verteilung der besten Künstliche-Intelligenz-Experten Um ganz vorn mitzuspielen, bedarf es aber neben der Kapitalzufuhr vieler schlauer Köpfe und riesiger Datenmengen, um die lernenden Maschinen zu trainieren. Bei KI-­Spitzenkräften lag die USA laut der 2018 erschienen Studie Global AI Talent Report mit über 9000 Köpfen deutlich vorn. Bereits deutlich abgeschlagen dahinter lag Großbritannien an zweiter Stelle mit rund 1860 Experten, gefolgt von Kanada, Frankreich, Australien, Deutschland und Spanien. Rein zahlenmäßig zeigte sich die USA gegenüber Deutschland 15-fach überlegen. Mit Blick auf KI in Unternehmen belegte Google 2018 einen der Spitzenplätze. Experten schätzen, dass etwa jeder zweite der 100 besten KI-Forscher derzeit für Google arbeitet, dessen CEO Sundar Pichai mit seinem AI-First-Credo klare Zeichen setzt und seine Mitarbeiter aufgefordert hat, dass alle Produkte und Prozesse des Tech-Unternehmens dahingehend weiterentwickelt werden (Alvares de Souza Soares und Schütte 2018). Investitionsbereitschaft in künstliche Intelligenz: MIT vs. Deutsche Bundesregierung Ende 2018 gab das MIT bekannt, etwa 1 Mrd. $ in KI zu investieren. Für eine einzelne Universität ist das eine enorme Investition. Fast zeitgleich gab die Deutsche Bundesregierung in ihrem Strategiepapier bekannt, ab 2019 jeweils jährlich 500 Mio. und bis 2025 in Summe 3 Mrd. € in KI-Projekte investieren zu wollen. Mit ihrer KI-Strategie zielte die Bundesregierung darauf ab, mehr Gründer zu motivieren, KI-basierte Geschäftsmodelle zu entwickeln. In Vergleich zu China, das beabsichtigt eine rund dreistellige Milliarden Dollar schwere KI-Industrie aufzubauen, wirkt die Investitionssumme der Bundesregierung nahezu unbedeutend. China strebt Spitzenposition an Wenn es um den Rohstoff Daten geht, mit dem KI-Systeme gefüttert werden müssen, nimmt das digitalisierte China auf dem Weg in die 2020er-Jahre die Spitzenposition ein (Schütte

2.6  Status quo und Ausblick: Wo steht die künstliche Intelligenz heute und …

37

2018). Nirgendwo sonst auf der Welt sprudeln ähnlich große Datenberge, deren Erfassung und Nutzung vom Staat erlaubt, gefördert und gefordert wird, was weltweit nicht kritiklos bleibt und in einen Weg zur totalen Überwachung münden könnte (Dorloff und Satra 2018). Dessen ungeachtet stellte das Land allein für einen KI-­Technologiepark bei Peking in 2018 rund 2,1 Mrd. $ Kapital bereit. Denn Chinas Masterplan sagt voraus, dass die KI-Branche bis 2030 direkt und indirekt 1500 Mrd. $ erwirtschaften wird. Um den Spitzenplatz einzunehmen, kündigte Chinas Präsident Xi Jinping Investitionen in KI von mehr als 150 Mrd. $ an (Heman 2018). Dies wäre rund 50 Mal mehr als Deutschland.

2.6

 tatus quo und Ausblick: Wo steht die künstliche Intelligenz S heute und wo geht die Reise hin?

Für eine Reihe von Wissenschaftlern in eher skeptisch eingestellten KI-Lagern, sind gleichberechtigte KI-Existenzen neben uns noch reine Gedankenspielerei. Für sie sind KI-Maschinen im Kern noch auf dem Niveau von „Prognoseautomaten“, die zwar Muster und Abläufe wiederkennen, einordnen oder vervollständigen können, aber noch lange nicht wirklich in die Zukunft schauen oder menschlich agieren können. So sieht der deutsch-britische Hirnforscher Professor John-Dylan Haynes die aktuelle KI-Entwicklung noch weit am Anfang. Für ihn löst KI lediglich Probleme, die gut formalisierbar und mathematisch beschreibbar sind, wie es etwa beim Schachspiel und dem strategischen Brettspiel Go der Fall ist. Hier stehen menschlichen Spielern zwar fast unbegrenzt mögliche Spielzüge zur Verfügung, aber dennoch ist der Zustandsraum hier weniger komplex als bei einem typischen Alltagsszenario bei uns Menschen (Schnabel 2018). Dazu gehört auch Poker, da – sobald die Datenbasis zum vergangenen Verhalten einer Person bekannt ist – KI die Wahrscheinlichkeit berechnen kann, dass derjenige Spieler blufft. Auf diese Weise wird auch Poker berechenbar. Anders verhält es sich mit unserer körperlichen Flexibilität, unserer Fantasie und unserem Erfindungsdrang. Hier verweist Haynes darauf, „dass keine KI vor 15 Jahren auf die Idee gekommen wäre, so etwas wie ein iPhone zu entwickeln“. Denn so etwas hatte es zu diesem Zeitpunkt noch nicht gegeben. Ein iPhone wäre für eine Maschine ein ganz schlecht formalisierbares Problem gewesen. Und KI wäre aller Voraussicht nach auch nicht auf die Idee gekommen, dass es dafür echte Bedarfe im Markt geben könnte. Daher erwartet Haynes von der KI auch keine Innovationsprozesse, da kreative Problemlösungen und Erfindungen noch immer uns Menschen vorbehalten seien. Ein wahrhaftiges kognitives Verständnis fehlt noch Der Neurologe und Physiker Christoph von der Malsburg erforschte bereits in den 1990er-Jahren neuronale Netzwerke und Mustererkennung und damit lange, bevor diese so populär wie heute wurden. Nach von der Malsburg können die gegenwärtigen KI-­ Systeme zwar  Muster erkennen, aber kein wahrhaftiges kognitives Verständnis entwickeln. Er verweist dazu auf Kinder, die etwa mit drei Jahren ein komplexes Objekt wie ein iPad innerhalb weniger Sekunden in sich abspeichern. Und es danach immer wiedererkennen – selbst unter schwächerer Beleuchtung oder mit anderen Farben oder in ande-

38

2  Künstliche Intelligenz verändert alles

ren Positionen. Gemäß von der Malsburg können die neuronalen Netze dies noch nicht verlässlich genug. Prognosen, bei denen sich künftig ein Bewusstsein auf einen Rechner kopieren lassen, hält er für überzogen. Dennoch erwartet der Neurowissenschaftler entscheidende Fortschritte bei KI, da die Technik bereits da sei und „Heere von klugen jungen Leuten, die hektisch Informatik lernen, jetzt auf diesen Zug aufspringen“ (Schnabel 2018). Schließlich könne sich jeder die Grundlagen des Deep Learning in zwei Wochen selbst beibringen, indem er entsprechende Programme herunterlädt und sich Tutorials anschaut. Für den Forscher ist es deshalb nur eine Frage der Zeit, bis menschliche Intelligenz in einem echten Sinn technisch realisiert werden kann. In einer für ihn noch fernen Zukunft könnten künstliche Organismen auch Situationsbewusstsein und flexible Entscheidungsmechanismen erhalten. Intelligenz allein stünde dabei nicht ausschließlich im Fokus, sondern vielmehr das Programmieren jener Instinkte, die uns Menschen durch die Evolution mitgegeben wurden, wie beispielsweise Überlebenswillen, Besitzstreben, Neugier oder Humor. Bereits heute wird in Labors daran gearbeitet, Maschinen solche Motivationsstrukturen zu implementieren. Unzählige neue Probleme werden gelöst, ohne die alten zu vergessen Eine Reihe von Forschern sieht die Entwicklung von KI schon deutlich weiter. Sie verweisen darauf, dass die künstlich neuronalen Netzwerke jeden Tag aus Erfahrung klüger und leistungsfähiger werden. Dabei stellen sich die Algorithmen – in Analogie zu Kleinkindern – ein neues Problem nach dem andern und versuchen es zu lösen ohne die anderen, alten Lösungen dabei zu vergessen. Der Direktor des Swiss AI Lab IDSIA, Professor Jürgen Schmidhuber, prognostiziert, dass sich die Systeme unaufhaltsam weiterentwickeln werden – „alleine schon deshalb, weil so viele Menschen von ihnen fasziniert sind“. In den kommenden Jahrzehnten werde man das Wesen der Intelligenz vollständig verstanden haben, das im Rückblick für KI dann recht simpel erscheine. Auf Basis dieser neuen Wissenssprünge werde man Maschinen bauen können, die viel klüger als der Mensch sind und die, im engeren Sinn, eigentlich gar keine Maschinen mehr sein werden. Die formelle Theorie des Spaßes erlaubt es sogar, Neugierde und Kreativität in KI zu implementieren, um künstliche Wissenschaftler und künstliche Künstler zu bauen (Schmidhuber 2018). Künstliche Intelligenz ist bereits allgegenwärtig Das Social-Media-Unternehmen Nowsourcing zeigte in Kooperation mit dem Sprachanalysesoftwareunternehmen CallMiner 2018, wie allgegenwärtig KI bereits im Alltag ist. Die Unternehmen schätzten, dass 2017 rund 84 % der Menschen KI genutzt und 50 % mit einer KI interagiert haben, ohne zu wissen, dass es sich um eine solche handelte. Die Anzahl der marktreifen KI-Anwendungen, die in der Lage sind, große Mengen an Texten und Dokumenten zu verarbeiten steigt. Beispiele finden sich bei IBM Watson im Bereich Text-, Bild-, Audio- und Videoanalyse, bei Microsoft Translator, Google Translator oder dem neuen Hoffnungsträger aus Köln DeepL Translator im Bereich maschineller Übersetzung, und Cleverbot oder Replika im Bereich natürlichsprachlicher Systeme.

2.6  Status quo und Ausblick: Wo steht die künstliche Intelligenz heute und …

39

Künstliche Intelligenz wird ins Zentrum von Anwendungen rücken Zwei führende KI-Forscher bei Google, Fei-Fei Li und Greg Corrado, prognostizierten bei der Entwicklerkonferenz I/O 2018, dass wir in den kommenden fünf Jahren erleben werden, wie unentbehrlich KI sein wird – ähnlich wie es gegenwärtig Netzwerke für uns sind. Heute würden KI und maschinelles Lernen v. a. einzelne Funktionen verbessern. Dagegen wird die Technologie laut Li in den nächsten zehn Jahren immer mehr im Zentrum von Anwendungen stehen. Bei aller Zuversicht räumte allerdings Google auch ein, dass es noch ein weiter Weg bis zur intelligenten Maschine sein wird. Neben Google arbeiten die weltgrößten Tech-Konzerne wie Apple, Microsoft, Amazon, Tencent, Facebook oder ­Alibaba fieberhaft an KI-Anwendungen der nächsten Generation. Denn kein Unternehmen will den globalen Anschluss an die Schlüsseltechnologie verpassen. Jeder möchte künftig KI-Schlüsselprodukte bauen und die Nutzungsregeln festlegen. Technologiekonzerne öffnen sich nach außen So gut wie alle großen Tech-Konzerne setzen auf KI-Anwendungen und KI-Plattformen. Viele davon stellen Schnittstellen zu ihren KI-Lösungen öffentlich zur Verfügung. So sind sie in der Lage, an der Weiterentwicklung von konzernfremden Forschern und Entwicklern teilzuhaben und lernen auf diese Weise fähige Köpfe kennen. Zudem können sie die Attraktivität ihrer Technologien direkter mit der Konkurrenz vergleichen, statt nur durch Publikationen (Hecker et al. 2017). Mit seiner OpenSource-Programmbibliothek TensorFlow, stellt Google eine Basis für maschinelles Lernen im Umfeld von Sprache und Bilderkennungsaufgaben bereit, über die Wissenschaftler, Entwickler und interessierte Nutzer Ideen per Programmcode miteinander austauschen können. Microsoft stellt seine öffentlich zugängliche Open-Source-Programmbibliothek Cognitive Toolkit zur Verfügung, um neuronale Netze erstellen, trainieren und evaluieren zu können. Das Toolkit eignet sich sowohl für maschinelles Lernen mit sehr kleinen Datenmengen auf Laptops als auch für große Datenmengen. Auch Amazon hat seine Programmbibliothek für maschinelles Lernen DSSTNE quelloffen gestellt und setzt auf Verfahren, die mit wenigen Trainingsdaten auskommen und sich verteilt trainieren lassen. Ein weiteres Beispiel findet sich bei Torch von Facebook. Dessen öffentliche Programmbibliothek fußt auf Verfahren des maschinellen Lernens, die sowohl bei Facebook als auch bei Twitter zum Einsatz kommen. Zukünftige Generationen von künstlicher Intelligenz verbessern Wahrnehmung, Logik und Abstraktionsvermögen Seit Jahren forscht das Fraunhofer Institut gleich in mehreren Instituten an hybriden KI-Technologien der nächsten Generation und kombiniert Machine-Learning-Verfahren mit abstraktem Expertenwissen in Systemen, die für die Kooperation mit Menschen geeignet sind. Wie die Abb.  2.1 zeigt, werden zukünftige KI-Generationen zusätzlich ­abstraktes Wissen, Erklärbarkeit und Transfer von bereits Erlerntem einbeziehen können und neben dem Lernen in den Dimensionen Wahrnehmen (Sehen, Hören, Spüren), Logik und Abstrahieren viel weiter entwickelt sein.

40

2  Künstliche Intelligenz verändert alles

Abb. 2.1  Generationen von künstlicher Intelligenz im Vergleich. (Quelle: Fraunhofer IAIS)

Künstliche Intelligenz und Weltherrschaft In einer vorausberechneten Gesellschaft besitzt derjenige Macht, der über den Einsatz von KI so viele Datenquellen wie möglich verbindet und für sich nutzbar macht. Sobald diese Person oder Organisation genügend Daten in autonomen Roboter eingespeist, eröffnet sich für sie eine neue Dimension sozialer Kontrolle. Solche Szenarien gipfeln schnell in eine globale Angst vor kriminellen Machenschaften oder einer neuen, für uns Menschen nicht mehr kontrollierbare Weltherrschaft durch Maschinen mit apokalyptischen Folgen. Bei der sich KI gegen unsere Menschheit stellen könnte, um uns vollständig als Spezies abzulösen und um zu verhindern, dass wir Menschen die übermächtig gewordene KI wieder abschalten. Den Physiker Professor Stephen Hawking trieb die Sorge, dass eine voll ausgeprägte KI das Ende der Menschheit bedeuten könnte. Auf dem Web Summit in Lissabon 2017 sagte Hawking aber auch, „dass die Entwicklung Künstlicher Intelligenz entweder das Schlimmste oder das Beste sein könnte, was der Menschheit passiert ist“. Für Professor  Oliver Bendel, der im Bereich Informations- und Maschinenethik sowie moralische Maschinen forscht, erscheint das Weltherrschaftsthema weniger relevant. Er erkannte vielmehr die Gefahr, „dass KI-Systeme dazu eingesetzt werden, um Menschen zu beobachten, zu belauschen, zu bewerten, auszuliefern oder gar ganz auszuschließen“ (Bendel 2018). Denn wenn Gesichtserkennung auf Stimmen- oder Spracherkennung trifft, lassen sich Menschen in einer Art und Weise einteilen und beurteilen, die ihnen selbst gefährlich werden könnte – unter der Voraussetzung, dass gewisse Absichten bei Menschen vorhanden sind, KI-Systeme als willfähriges Werkzeug einzusetzen. Da die Spielregeln unserer Gesellschaft im Umgang mit maschineller Intelligenz bislang noch weitgehend ungeklärt sind, besteht perspektivisch das latente Risiko, dass Superintelligenzen programmiert werden, noch bevor wir Menschen in der Lage sind, die Systeme auch mit unseren Wertesystemen auszustatten. Dies erfordert, dass die zu ergreifenden Kontrollmaßnahmen bereits vorbereitet und programmiert werden müssen, bevor die KI superintelligent wird, weil diese sonst die Maßnahmen schnell durchschauen und verhindern könnte (Bostrom 2014). Die Philosophieprofessorin Catrin Misselhorn hebt in diesem Zusammenhang zwei Fragen hervor, nämlich, „ob und wie

2.6  Status quo und Ausblick: Wo steht die künstliche Intelligenz heute und …

41

man Maschinen überhaupt konstruieren kann, die selbst moralische Entscheidungen treffen und umsetzen können, und ob man dies tun sollte“ (Weber-Guskar 2018). Sie beantwortet diese Fragen mit dem Stufenmodell von Moralität für Maschinen des amerikanischen Philosophen James Moor. Für die volle Moralität sei neben moralisch relevanten Folgen, Übereinstimmung mit moralischen Wertvorgaben sowie begründeten Entscheidungen auch noch Selbstbewusstsein notwendig. In absehbarer Zeit hält es Misselhorn für vorstellbar, dass intelligente Maschinen lediglich die dritte dieser vier Stufen erreichten, denn Selbstbewusstsein sei in allen konkurrierenden Theorien noch zu wenig verstanden, als dass es sich künstlich herstellen ließe. Künstliche Intelligenz und friedliche Koexistenz Dabei dürfte es kaum plausible Gründe für Superintelligenzen geben, sich gegen unsere Wesensart zu stellen. Blicken wir auf uns Menschen kognitiv unterlegene Gorillas, Orang-­ Utans oder Schimpansen, deren Schicksal ganz allein von uns abhängt, so sind wir an einer friedlichen Koexistenz interessiert. Es ist uns wichtig, dass viele Artgenossen neben uns weiterleben und wir sind traurig, wenn sie aussterben. Für Jürgen Schmidhuber werden intelligente Systeme spätestens dann das Interesse an uns Menschen verlieren, wenn sie eine Entwicklung, die bei uns Menschen von der Geburt bis zum Erwachsenwerden 20 Jahre dauert, in 20 Millisekunden nachvollziehen können. Angst davor brauchten wir seiner Meinung nach nicht zu haben. Denn wir Menschen seien wohl später einmal für intelligente Maschinen das, was für uns die Ameisen oder Ochsenfrösche sind: „Die lassen wir auch leben – solange sie nicht in unsere Häuser krabbeln“. Der Forscher ergänzt zudem, dass neue Technologien immer auch auf verschiedene Weise eingesetzt werden können. Als die Technologie zur Herstellung von Feuer vor rund 600.000 Jahren erfunden wurde, lernten wir Menschen einerseits die positiven Aspekte des Feuers kennen, wie dessen wärmende Wirkung in der Nacht und moderne Form der Nahrungszubereitung; darüber hinaus lernten wir aber auch, dass Feuer zu Bränden führen und andere Menschen verletzen kann. Damals entschieden wir Menschen uns dazu, das Feuer weiterhin zu nutzen, da die Vorteile gegenüber den Nachteilen der Feuernutzung überwogen. Diese Analogie sieht Schmidhuber bei der Verbreitung und Nutzung der künstlich intelligenten Technologien. Auch einen Fluchtweg ins All benötigten wir nicht, da die intelligenten Maschinen die Erde noch vor uns verlassen werden. Im Asteroidengürtel gäbe es Unmengen an Rohstoffen, für selbstreplizierende KI-Fabriken ohne eine Atmosphäre voll giftigem Sauerstoff wie auf der Erde, die Roboter schneller rosten lässt. Wer mitentscheiden will, wie sich das neue Kapitel Mensch-Maschine weiter fortsetzt, sollte sich nach Schmidhuber beeilen – denn die Entwicklung wird an Geschwindigkeit zunehmen. Dessen ungeachtet, erscheint es als nicht unwahrscheinlich, dass KI den Weg aller Technologien geht. Zunächst erscheint sie uns wie Zauberei. Dann wird sie normal wie Wasser aus dem Wasserhahn oder unsichtbar wie Luft, weil KI für uns so selbstverständlich geworden ist und wir von den künstlich intelligenten Systemen der Superintelligenzen gar nichts mehr bemerken.

42

2  Künstliche Intelligenz verändert alles



Superintelligenz

„Die Frage ist nicht, ob KI die Art und Weise, wie wir denken und handeln revolutioniert und damit auch die Wertschöpfung und Ertragslogik von Unternehmen neu definiert, sondern WANN sie dies zuverlässig und effizient tut und WANN wir Menschen bereit sind, einen Großteil an Entscheidungsautonomie abzugeben. Ich gehe davon aus, dass der Zeitpunkt der technischen Singularität – bei dem wir Menschen ohne technische Hilfsmittel den superintelligenten Maschinen verstandesgemäß nicht mehr folgen können – zwischen 2035 und 2040 stattfinden wird. Dieses Phänomen wird uns nicht überraschen. Die Übergänge werden fließend sein. Medien und Produkte führender KI-Unternehmen werden uns Jahre zuvor darauf einstimmen, sodass der Übergang zur Superintelligenz den meisten Menschen leichter fallen wird.“

2.7  The Day After: Wenn Superintelligenzen uns in allem überlegen sind

2.7

43

 he Day After: Wenn Superintelligenzen uns in allem T überlegen sind

Nach der heute vorherrschenden enger gefassten KI („Artificial Narrow Intelligence“), die eine bestimmte Aufgabe besser lösen kann als wir Menschen und der allgemeinen KI („Artificial General Intelligence“), die uns Menschen ebenbürtig ist, wird eines Tages die Superintelligenz „Artificial Superintelligence“) folgen, die wir Menschen ohne technologische Hilfsmittel nicht mehr verstehen können. Dieser Zeitpunkt wird technologische Singularität genannt. Kommende Generationen werden KI für völlig selbstverständlich halten, die für uns momentan noch unvorstellbar sind. Professor Nick Bostrom, Experte für Bioethik und Direktor des Future of Humanity Institute, beschreibt die zukünftige Superintelligenz als Intellekt, der dem menschlichen Gehirn in jeder Hinsicht überlegen ist – in Rechenaufgaben, Kreativität, Weisheit und sozialen Fähigkeiten. Gleichwohl lässt er offen, ob es sich dabei um einen digitalen Computer, ein Netzwerk aus Computern oder gezüchtetes kortikales Gewebe handelt (Bostrom 2014). Formen der Supertintelligenz Der Forscher benennt drei mögliche Formen: kollektive Superintelligenz – bestehend aus einer großen Zahl geringer Intellekte, die in  ihrer Gesamtleistung jedes andere existierende kognitive System in vielen Bereichen weit übertreffen; schnelle Superintelligenz – als System, dass alles tun kann, was ein Mensch kann, nur viel schneller, sowie qualitative Superintelligenz - als System, dass mindestens so schnell denkt wie ein Mensch, dabei aber erheblich klüger ist. Was einen Menschen wirklich von einem Affen unterscheidet, ist nicht die Fähigkeit schneller zu denken, sondern auch die Art und Weise zu denken. Die kognitiven Fähigkeiten eines Menschen ermöglichen ihm eine komplexe Kommunikation, langfristige Planung oder abstraktes Denken. Über diese Fähigkeiten verfügen Affen nicht, auch wenn man deren Gehirne um das Tausendfache beschleunigen würde. Ein Affe mag verstehen, dass es einen Menschen gibt und dass es ein Haus gibt. Aber er versteht vermutlich nicht, dass der Mensch das Haus gebaut hat. Für einen Affen sind Häuser Teil der Natur. So wie Affen nicht in der Lage sind, die Zusammenhänge zwischen Mensch und Haus zu verstehen, werden Menschen zukünftig nicht in der Lage sein, zu verstehen, was superintelligente Maschine zu leisten vermögen (Hofmann 2016). Funktionen der Superintelligenz Bostrom verweist auf drei mögliche Funktionen einer superhumanen Intelligenz und beschreibt diese beispielhaft an dem zu lösenden Problem der Weiterentwicklung eines Motors (Bostrom 2014). Als Orakel könnte die Superintelligenz nahezu alle komplexen Fragen einwandfrei beantworten und damit auch die Frage, wie ein effektiverer Motor zu bauen ist. Als Genie könnte die Superintelligenz jeden Auftrag auf höchstem Niveau erfüllen und z. B. ein neues Werkzeug entwickeln, um einen neuen, effektiveren Motor zu entwickeln. Als Souverän könnte die Superintelligenz höhere Ziele anstreben und dabei alle Möglichkeiten nutzen, frei in der Welt zu agieren und selbst darüber entscheiden, welches die besten Wege sind, einen schnelleren, günstigeren, leistungsfähigeren und sicheren Motor zu entwickeln.

44

2  Künstliche Intelligenz verändert alles

Wann könnte es soweit sein? Eines steht ganz sicher fest. Wir Menschen werden die maschinelle Superintelligenz irgendwann erschaffen und damit die Grenzen unseres Verständnisses und unsere Naturgesetze erweitern. Dabei können wir sie so bauen, dass sie unsere menschlichen Wertesysteme übernimmt. Und dennoch gäbe es das Kontroll- und Steuerungsproblem. Denn noch ist unklar, wie wir Menschen überhaupt noch kontrollieren können, was Superintelligenzen erschaffen, wenn sie uns auf so gut wie allen Gebieten übertreffen. In dem Zusammenhang spricht Bostrom „von der vermutlich größten und beängstigendsten Aufgabe, der die Menschheit jemals gegenüberstand. Und ganz egal ob wir sie meistern oder an ihr scheitern: Es wird wohl auch die letzte sein.“ Zum Zeitpunkt der durch Superintelligenz eingeläuteten technologischen Singularität, bei der KI uns Menschen in jeglicher Hinsicht überlegen sein werden, gibt es bisher nur wenige eindeutige Aussagen. Jedoch beschrieb der Mathematiker Irving John Good bereits 1965 ein Konzept zur ultraintelligenten Maschine und deren Auswirkungen. cc Was ist eine ultraintelligente Maschine?   „Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei Weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat“ (John Good 1965). In seinem 1999 erschienenen Buch Age of Spiritual Machines sagte der Technologievisionär, ehemaliger Zukunftsberater des US-Präsidenten Bill Clinton und Google-­ Direktor Ray Kurzweil die nächsten vier Jahrzehnte voraus und machte präzise Angaben zu den Jahren 2009, 2019, 2029 und 2039 (Kurzweil 2000). Von den 147 Vorhersagen, die Kurzweil 1999 für 2009 traf, waren im Rückblick nach eigenen Angaben 86 % zutreffend oder im Wesentlichen zutreffend. Kurzweil prognostizierte, dass bis 2029 zum ersten Mal ein Computer mit allen geistigen Fähigkeiten des Menschen gleichziehen und damit allgemeine KI erreichen könnte (Armbruster 2018). Den Zeitpunkt der technologischen Singularität datierte Kurzweil auf das Jahr 2045 (Kurzweil 2014a, b). Der Robotikwissenschaftler Hans Moravec prognostizierte allgemeine KI im Jahr 2040 und Superintelligenz im Jahr 2050 (Moravec 2000). Professor Patrick Winston, ehemaliger Direktor des Artificial Intelligence Laboratory am MIT sagte technologische Singulariät für Anfang der 2040er-Jahre voraus (Siegel 2018). Professor Schmidhuber Mitgründer und Chief Scientist des AI-Unternehmens NNAISENSE, schätzte den Zeitpunkt der Singularität auf ungefähr 2050 (Creighton 2018). Seine Prognose deckt sich in etwa mit der von Masayoshi Son. Der CEO des Telekommunikations- und Medienkonzerns Softbank kommt zu dem Schluss, dass die Morgendämmerung superintelligenter Maschinen mit

2.7  The Day After: Wenn Superintelligenzen uns in allem überlegen sind

45

einem IQ von 10.000 ab 2047 passieren könnte (Galeon 2017). Dann könnten Maschinen selbst entscheiden, was sie interessiert, eigenständig Strategien entwickeln, weitsichtig Gefahren erkennen und darauf angemessen handeln. Die Professoren Nick Bostrom und Vincent C.  Müller führten auf Fachkonferenzen Umfragen zu KI durch (Bostrom und Müller 2014). Dabei sollten die Teilnehmer den Zeitpunkt einschätzen, wann eine allgemeine KI eintreten könnte und jeweils eine optimistische, realistische und pessimistische Schätzung abgeben. Die Teilnehmer schätzten, dass allgemeine KI optimistisch geschätzt im Jahr 2022, realistisch geschätzt im Jahr 2040 und pessimistisch geschätzt im Jahr 2070 eintreten könnte. Darüber hinaus wurden die Teilnehmer bezüglich des voraussichtlichen Eintrittsdatums von Superintelligenz befragt. Die Teilnehmer schätzten, dass Superintelligenz etwa 20 Jahre nach Eintritt der allgemeinen KI eintreten könnte und damit im Jahr 2060. Was werden wir tun? Noch ist völlig unklar, was passieren wird, wenn wir die Mensch-Gehirn-Schnittstelle verlässlich und biologisch sicher passieren und allgegenwärtig mit uns überlegenen Superintelligenzen verbunden sein könnten. Einige Futurologen sagen voraus, dass wir Menschen uns irgendwann sogar gegen unsere biochemische Begrenztheit entscheiden könnten und unsere Körper aus guten Gründen zurücklassen werden. Das klingt wie eine abstrakte Zukunftsvision, die noch ganz weit weg ist. Aber ist sie das wirklich? Was werden wir tun, wenn jeder Gedanke, jedes Gefühl, jede Bewegung und alle unsere zehn physischen Sinne 1:1 technisch-funktional und damit digital reproduzierbar sind und KI uns auf allen Ebenen überlegen ist? Was werden wir machen, wenn das Prinzip der rekursiven Selbstverbesserung („Seed AI“) irgendwann Wirklichkeit wird  – wenn sich Superintelligenzen neu programmieren und millionenfach klonen, um sich selbst noch intelligenter zu machen? Je intelligenter sie werden, desto besser und schneller wären die Superintelligenzen in der Lage, sich selbst weiter zu optimieren. In immer schnelleren Iterationen, was wohlmöglich zu einer Superintelligenzexplosion führen würde. Dieses Szenario klingt ebenso beeindruckend wie erschreckend. Noch zu weit entfernt und daher aus heutiger Sicht schwer vorstellbar. Doch der Zeitpunkt selbstreplizierender intelligenter Maschinen und Software könnte eines Tages kommen. Unsere Welt im Jahr 2500: Parallelwelten und Transhumanisten Schauen wir noch weiter in die Zukunft, sind auch digitale Parallelwelten, ähnlich wie diese, die 1999 im Science-Fiction-Film Matrix skizziert wurden, vorstellbar. Nick Bostrom prognostiziert eine solche Matrix in den kommenden 300–500 Jahren. Darin könnten wir Menschen dann in digitalen Parallelwelten leben. Und künstliche neuronale Netzwerke würden eine Kopie unserer menschlichen Gehirne aufrechterhalten – unabhängig davon ob die Körper noch leben oder nicht. Willkommen in der Welt der Transhumanisten, die ihre physischen, psychischen und intellektuellen Grenzen menschlicher Möglich­ keiten durch den Einsatz fortschrittlicher Technologie erweitern. Im Gegensatz zur

46

2  Künstliche Intelligenz verändert alles

­ chreckensvision in der „Matrix“, sehen Transhumanisten das Leben in digitalen ParallelS welten als gewaltige Chance für die Menschheit, da unsere Körper mit all ihren Beschränktheiten der Biologie zurückgelassen werden könnten. In diesem Zeitalter der posterweiterten Menschheit werden wir selbst zum Erfinder und Gestalter unserer Geschichte. Und tun das, wonach uns der (digitale) Sinn steht, ganz frei von Zwängen und damit leichter, vorhersehbarer und selbstgestalteter. Die unseres Körpers entledigten künstlich intelligenten Algorithmen werden möglicherweise zentillionenfach – das ist eine Zahl gefolgt von 600 Nullen – leistungsfähiger sein als das heutige menschliche Gehirn. Sie werden künstlich intelligent denken, planen, entscheiden, sich erinnern, träumen und vielleicht auch fühlen – falls das Fühlen in dieser Welt überhaupt noch einen relevanten Zweck erfüllen sollte. In der Vorstellung einiger Transhumanisten leben die Algorithmen oder ihre Nachfolger in kollektiven Gemeinschaften als sich selbst weiterentwickelnde und vervielfältigende Systeme mit unzähligen, eindeutig identifizierbaren ID miteinander und potenzieren ihre Erfahrungen kontinuierlich in einer für uns verstandesgemäß nicht mehr greifbaren Geschwindigkeit und Intensität: Und damit leistungsfähiger, kreativer und harmonischer als es das höhere Säugetier Mensch jemals zustande gebracht hat.

2.7  The Day After: Wenn Superintelligenzen uns in allem überlegen sind



Eine Zukunft schaffen, in der wir leben wollen „Als Treiber des technischen Fortschritts, wird KI die Art und Weise, wie wir in den kommenden Jahrzehnten leben und arbeiten werden, massiv verändern. In diesem Zusammenhang bringt uns Angst oder Skepsis gegenüber KI nicht weiter – über vermeidbare Schreckensvisionen zu diskutieren, ebenso wenig. Vielmehr sollten wir eine erwartungsvolle, computergestützte Zukunft gestalten, in der wir gerne leben wollen. Und eine konstruktive Debatte führen, über gesellschaftliche und ökonomische Auswirkungen sowie Gestaltungsmöglichkeiten von KI. “

47

48

2  Künstliche Intelligenz verändert alles

Literatur Alvares de Souza Soares, Philipp; Schütte, Christian (2018): China und die USA im Hightechkrieg, http://www.manager-magazin.de/magazin/artikel/kuenstliche-intelligenz-china-und-usa-im-hightech-krieg-a-1205729-4.html. Zugegriffen:10.02.2019 Amodei, Dario; Hernandez, Danny (2018): AI and Compute, https://blog.openai.com/ai-and-compute, Zugegriffen: 03.12.2018 Appelfeller, Wieland; Feldmann, Carsten (2018): Die digitale Transformation des Unternehmens, Springer Gabler, Wiesbaden Armbruster, Alexander (2018): Hört auf, Google und Amazon nachzutrauern!, https://www.faz.net/ aktuell/wirtschaft/diginomics/ki-so-will-deutschland-international-aufholen-15921337.html. Zugegriffen: 20.01.2019. Bendel, Oliver (2018): Ist es eigentlich intelligent, Künstliche Intelligenz zu erschaffen?, http:// www.zukunftstechnologien.info/technik-und-wirtschaft/robotik/ist-es-eigentlich-intelligent-kuenstliche-intelligenz-zu-erschaffen. Zugegriffen: 20.09.2018 Birkinshaw, Julien (2018): What’s the Purpose of Companies in the Age of AI?, Harvard Business Review, https://hbr.org/2018/08/whats-the-purpose-of-companies-in-the-age-of-ai. Zugegriffen: 10.12.2018 Bostrom, Nick (2014): Superintelligence: Paths, Dangers, Strategies, OUP Oxford Bostrom, Nick; Müller, Vincent (2014): Future Progress in Artificial Intelligence, A Survey of Expert Opinion, https://nickbostrom.com/papers/survey.pdf. Zugegriffen: 15.11.2018 Bughin, Jacques; Seong, Jeongmin; Manyika, James; Chui, Michael; Joshi, Raoul (2018): Notes from the AI frontier: Modeling the impact of AI on the world economy, https://www.mckinsey.it/ idee/notes-from-the-ai-frontier-modeling-the-impact-of-ai-on-the-world-economy-Modelingthe-impact-of-AI-on-the-world-economy-September-2018. Zugegriffen: 01.12.2018 BMWi (2018): Potenziale der Künstlichen Intelligenz im produzierenden Gewerbe in Deutschland, https://www.bmwi.de/Redaktion/DE/Publikationen/Studien/potenziale-kuenstlichen-intelligenz-im-produzierenden-gewerbe-in-deutschland.pdf?__blob=publicationFile&v=17. Zugegriffen: 30.11.2018 CEBIT (2017): Wie künstliche Intelligenz die Unternehmenssoftware verändert, https://www.cebit. de/de/news-trends/news/wie-kuenstliche-intelligenz-die-unternehmenssoftware-veraendert-469, Zugegriffen: 20.11.2018 Creighton, Jolene (2018): The „Father of Artificial Intelligence“ Says Singularity Is 30 Years Away, https://futurism.com/father-artificial-intelligence-singularity-decades-away. Zugegriffen: 1.12.2018 Dengler, Katharina; Matthes, Britta (2018): Wenige Berufsbilder halten mit der Digitalisierung Schritt, IAB-Kurzbericht 4/2018, Institut für Arbeitsmarkt- und Berufsforschung, http://doku. iab.de/kurzber/2018/kb0418.pdf. Zugegriffen: 25.11.2018 Diamandis, Peter; Kotler, Steven (2012): Abundance – The Future Is Better Than You Think, Free Press, New York Donath, Andreas (2017): 2030  – Automatisierung soll 12 Millionen Deutsche betreffen, https:// www.golem.de/news/2030-automatisierung-soll-12-millionen-deutsche-betreffen-1712-131463. html. Zugegriffen: 12.10.2018

Literatur

49

Dorloff, Axel; Satra, Daniel (2018): China: Auf dem Weg zur totalen Überwachung, ARD-­Studio Peking, https://www.tagesschau.de/ausland/ueberwachung-china-101.html. Zugegriffen: 01.11.2018. Frey, Carl Benedikt; Osborne, Michael (2013): The Future of Employment: How susceptible are jobs to computerisation?, Oxford Martin Programme on Technology and Employment, University of Oxford Galeon, Dom (2017): SoftBank CEO Promises „Super Artificial Intelligences“ With IQ of 10,000 in 30 Years, https://futurism.com/softbank-ceo-promises-super-artificial-intelligences-with-iq-of-10000-in-30-years. Zugegriffen: 10.10.2018 Gartner (2018): Gartner Says Global Artificial Intelligence Business Value to Reach $1.2 Trillion in 2018, https://www.gartner.com/newsroom/id/3872933. Zugegriffen: 01.11.2018. Glasfort, Manuel (2018): Robotersteuer: Ökonomen sind skeptisch, https://www.noz.de/deutschland-welt/ wirtschaft/artikel/1198722/robotersteuer-oekonomen-sind-skeptisch. Zugegriffen: 20.11.2018 Good, Irving John (1965): Speculations Concerning the First Ultraintelligent Machine, in Franz Alt, Morris Rubinoff (Hrsg.), Advances in Computers, Academic Press, 6/1965, S. 31–88 Greiner, Vinzenz (2017): Im Interview mit Jürgen Schmidhuber: „Wir müssen Roboter wie Kinder erziehen“, https://www.blick.ch/news/wirtschaft/forscher-zum-umgang-mit-kuenstlicher-intelligenz-wir-muessen-roboter-wie-kinder-erziehen-id6054139. Zugegriffen: 11.11.2018. Hecker et  al. (2017): Zukunftsmarkt Künstliche Intelligenz, Fraunhofer-Allianz Big Data, http:// publica.fraunhofer.de/eprints/urn_nbn_de_0011-n-4976615.pdf. Zugegriffen: 15.11.2018 Hernan, Arthur (2018): China‘s Brave New World Of A, https://www.forbes.com/sites/arthurherman/2018/08/30/chinas-brave-new-world-of-ai/#44b1271128e9. Zugegriffen: 22.03.2019 Hofmann, Maurice (2016): KI Revolution – Mögliche Folgen von technologischer Singularität, https://medium.com/@mauricehofmann/ki-revolution-m%C3%B6gliche-folgen-von-technologischer-singularit%C3%A4t-b0130a1831d4. Zugegriffen: 20.11.2018 Holland, Martin (2017): Putin: Wer bei KI in Führung geht, wird die Welt beherrschen, https://www. heise.de/newsticker/meldung/Putin-Wer-bei-KI-in-Fuehrung-geht-wird-die-Welt-beherrschen-3821332.html. Zugegriffen: 27.12.2018 Horowitz, Julia (2017): Jack Ma: We need to stop training our kids for manufacturing jobs, CNN Business, https://money.cnn.com/2017/09/20/technology/jack-ma-artificial-intelligence-bloomberg-conference. Zugegriffen: 10.09.2018 Kurzweil, Ray (2000): The Age of Spiritual Machines, Penguin Books, London Kurzweil, Ray (2014a): Das Geheimnis des menschlichen Denkens: Einblicke in das Reverse Engineering des Gehirns, Lola Books, Berlin Kurzweil, Ray (2014b): Menschheit 2.0: Die Singularität naht, Lola Books, Berlin Laudenbach, Peter; Rödder, Andreas (2016): Alles schon mal dagewesen, https://www.brandeins.de/ magazine/brand-eins-wirtschaftsmagazin/2016/digitalisierung/alles-schon-mal-da-gewesen. Zugegriffen: 24.08.2018 McDermott, Bill (2018): Maschinen können nicht träumen, https://news.sap.com/germany/2018/01/ maschinen-koennen-nicht-traeumen. Zugegriffen: 02.10.2018 Moravec, Hans (2000): Robot: Mere Machine to Transcendent Mind, Oxford University Press, Oxford Rouse, Margaret (2018): Affective Computing, https://www.computerweekly.com/de/definition/Affective-Computing-Emotion-AI. Zugegriffen: 02.04.2019

50

2  Künstliche Intelligenz verändert alles

Schmidhuber, Jürgen (2018): Künstliche Intelligenz wird alles verändern, Der Handelsblatt KI Summit, https://veranstaltungen.handelsblatt.com/kuenstliche-intelligenz/2017/12/19/kuenstliche-intelligenz-wird-alles-aendern. Zugegriffen: 05.12.2018 Schnabel, Ulrich (2018): Was macht uns künftig noch einzigartig?, https://www.zeit.de/2018/14/kuenstliche-intelligenz-menschen-maschine-verhaeltnis/komplettansicht. Zugegriffen: 10.11.2018 Schütte, Christian (2018): Die Mind-Mission, in: Manager Magazin, Mai 2018, S. 68–74 Siegel, Eliot (2018). Demystifying Artificial Intelligence: Simplifying AI and machine learning, Applied Radiology, 2018, 47(5) S. 26–28 Tegmark, Max (2017): Leben 3.0: Mensch sein im Zeitalter Künstlicher Intelligenz, Ullstein, Berlin Weber-Guskar, Eva (2018): Roboter, entscheide dich mal!, https://www.zeit.de/2018/41/roboter-grundfragen-maschinenethik-moral-catrin-misselhorn. Zugegriffen: 20.05.2019

3

Mit 30 Prinzipien zum Digital Champion

Zusammenfassung

Die nächste Generation der digitalen Transformation lässt Unternehmen heute keine Wahl mehr, ihre Leitprinzipien bei organisatorischer Wertschöpfung, Ertragsmechanik, Technologieeinsatz, Kulturveränderung und Kundenbeziehungen auf den Prüfstand zu stellen und, falls erforderlich, ganzheitlich und konsequent auf die neuen Spielregeln innerhalb ihrer Branche auszurichten. Zum Management der „Digital Transformation Classics“ sind weitere Disziplinen hinzugekommen – das digital zu bespielende Terrain hat sich auf zwölf Steuerungsebenen erweitert. Es ist breiter und tiefer geworden. Die hier vorgestellten 30 Prinzipien für digitale Transformation der nächsten Generation sind aufgeteilt in sechs Kategorien: angefangen bei digitalen Grundprinzipien, der Standortbestimmung und (Weiter-)Entwicklung der Digitalstrategie über die Transformationsplanung und -umsetzung bis hin zu Prinzipien für digitale Überlegenheit im Wettbewerb. Am Ende steht das KAFKA-Modell mit seinen fünf Schwerpunkten, denen Transformationsmanager folgen können, um ihr Unternehmen zum Digital Champion in ihrer Branche weiterzuentwickeln: Mit einer Mensch und Technologie verzahnender Kulturtransformation, schneller Wandlungsfähigkeit, konsequenter Integration von wettbewerbsrelevanten Schlüsseltechnologien, überlegenen Kundennutzen und einem verlässlichen Frühwarnsystem lassen sie den Wettbewerb hinter sich und setzen neue Maßstäbe in ihrer Branche.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Wolan, Next Generation Digital Transformation, https://doi.org/10.1007/978-3-658-24935-9_3

51

52

3.1

3  Mit 30 Prinzipien zum Digital Champion

Digitales Fundament

3.1.1 Digital Classics First, Deep Tech Second Die Zukunft der unternehmerischen Wertschöpfung liegt in der Exploration und Ausschöpfung von digitalen Geschäftschancen und im Umbau der Organisations-DNA, um die Betriebslogik konsequent und konzertiert auf das intelligente, vernetzte und noch stärker automatisierte Zeitalter auszurichten. Gerade dann, wenn das Marktumfeld des eigenen Unternehmens bereits in seiner digitalen Reife fortgeschritten ist, sind die sog. Digital Classics eine Art IT- Pflichtprogramm, um weiterhin wettbewerbsfähig zu bleiben. Gemeint ist damit neben der kundenzentrischen IT- Ausrichtung der gesamten Organisation die Integration aller kunden- und wettbewerbsrelevanten Basistechnologien der digitalen Ära - wie Mobiltechnologie, soziale Netzwerke oder Anwendungen, die Daten auswerten und dabei in sehr kurzen Zeitintervallen riesige Datenmengen verarbeiten können. Hinzu kommt eine moderne, skalierbare IT-Infrastrukturumgebung, um Lastspitzen abzufangen und die Inanspruchnahme flexibler Cloud-Services – im Einklang mit unternehmensinternen Vorgaben zur Auslagerung von IT-Infrastrukturen. Das Grundprinzip Digital Classics First steht dabei nicht nur für Technologieeinsatz allein. Zum Technologieeinsatz zählt die Fähigkeit, die Technologien ökonomisch nutzbar zu machen. Betreibt beispielsweise ein Handelsunternehmen 20 Jahre nach der Transformation des stationären Handels immer noch keinen Webshop, geht es vermeidbare Risi­ ken ein, weitere Marktanteile an die inzwischen (hoch-)digitalisierten E-Commerce-­ Marktteilnehmer zu verschenken. Zwar lässt sich ein Webshop innerhalb von wenigen Monate technisch-funktional entwickeln oder lizenzieren und anschließend betreiben. Doch bleibt der funktionale Softwareeinsatz an sich ein tendenziell einfacheres und schnell lösbares Problem. Der Aufbau von Steuerungskompetenz mit Erfahrungswerten beim E-­Commerce-Betrieb ist dagegen eine ungleich größere Herausforderung. Technologie ökonomisch nutzbar zu machen und Erfahrungwissen aufzubauen nimmt Zeit in Anspruch – u. U. mehrere Jahre.

3.1  Digitales Fundament

53

Digital Classics und Deep Techs gleichzeitig zu managen, ist herausfordernd Haben Unternehmen ihre „digitalen Hausaufgaben“ noch nicht hinreichend abgeschlossen, wird es für sie kräftezehrend, sich gleichzeitig dem Aufbau von Erfahrungswissen und der Nutzbarmachung neuer Technologiefelder zu widmen. Die Folge: Sie müssen enorme spürbar mehr Anstrengungen in Kauf nehmen, um zum digitalisierten Marktumfeld aufzuschließen. Somit stellt die Auseinandersetzung mit den Deep Technologies einen wichtigen  Transformationsschritt dar, um die digitale Transformation  der eigenen Organisation robust und wirksam in die nächste Stufe zu führen. Dagegen setzen in ihrer digitalen Reife fortgeschrittene Unternehmen tiefe Technologien bereits in Ruhe und gebotener Umsicht ein und realisieren Geschäftschancen, um im Zeitalter des steigenden Wettbewerbsdrucks vorne mitzuspielen. Sammelbegriff für neue Durchbruchstechnologien Deep Technologies stehen für die nächsten große Dinge  – als Sammelbegriff für neue Durchbruchstechnologiearten, die in ihrer kommerziellen Reife bereits fortgeschritten sind und das Potenzial haben, Märkte zu verändern und Wettbewerbsvorteile zu generieren. Je nach Quelle wird die Bandbreite der tiefen Technologien unterschiedlich ausgelegt. Eine hohe Übereinstimmung findet sich in der Literatur bei KI, Big Data Analytics, Virtual und Augmented Reality sowie dem Internet der Dinge und Blockchain. Deep Techs verändern die Wertschöpfungskette, das Produktportfolio, die Kundenerfahrungen und damit die Wettbewerbsfähigkeit von Unternehmen direkt. Zudem haben viele auf Deep Tech basierenden Innovationen disruptiven Charakter. Durch ihre intelligente Verschmelzung von Hard- und Software zu neuen vernetzten Systemen, Lösungen und Produkten stellen sie Unternehmen exponentielles Wachstum in Aussicht. Weitere Geschäftspotenziale entstehen dann, wenn sich Deep Techs untereinander verzahnen und durch die Verzahnung neue Geschäftschancen entstehen. Vor diesem Hintergrund ist es für Unternehmen von enormer Bedeutung, nicht nur die Basis-, sondern v. a. auch die Schlüsseltechnologien zu durchdringen und in das Betriebsmodell einzubinden. Einen umfassenden Überblick zu allen 20 Technologiefeldern gibt das Kap. 5.

54

3  Mit 30 Prinzipien zum Digital Champion



Tiefe Technologien

„Deep Technologies werden zukünftig in starkem Maße über Erfolg oder Misserfolg von Unternehmen bestimmen. Mit ihrem Rohstoff Daten sind sie Wegbereiter für neue digitale Geschäftsmodelle der 2020er Jahre – angeführt von der herausragenden Querschnittstechnologie Künstliche Intelligenz.“

3.1  Digitales Fundament

55

3.1.2 Focus and speed up! In einer seiner Mitteilungen teilte Amazon-Chef Jeff Bezos seinen Aktionären mit, dass die meisten Entscheidungen getroffen werden mit nur etwa 70 % der Informationen, die man eigentlich gern gehabt hätte. Derjenige, der auf 90 % wartet, wird vermutlich in den meisten Fällen zu langsam sein. Bezos ergänzte: Unabhängig davon müssen Unternehmen es schaffen, schlechte Entscheidungen schnell zu korrigieren. Wenn man also gut darin ist, seinen Kurs zu korrigieren, sind Irrtümer weniger kostspielig als man denkt, während zu langsam zu sein, in jedem Fall teuer kommt (Vogels 2017). Bereits 120 Jahre früher stellte Vilfredo Pareto seine 80-zu-20-Prozent-Regel vor, die auch heute im Zuge der benötigten Umsetzungsgeschwindigkeit von digitaler Transformation von herausragender Bedeutung ist. Mit dem Pareto-Prinzip die Umsetzungsgeschwindigkeit erhöhen Der Ökonom und Soziologe Pareto beobachtete zum Ende des 19.  Jahrhunderts, dass etwa vier Fünftel des Vermögens bei rund einem Fünftel der italienischen Familien konzentriert war und sah dieses statistische Phänomen auch in vielen anderen Bereichen bestätigt. Mehr Erfolg mit weniger Aufwand zu erzielen – das war Paretos Antrieb. Seine 80-zu-20-Regel besagt, dass sich viele Aufgaben mit einem Mitteleinsatz von rund 20 % erledigen lassen, sodass 80 % aller Probleme gelöst werden. Anders ausgedrückt, lässt sich ein Output von 80 % in nur 20 % der eingesetzten Zeit erreichen. Die verbleibenden 20 % Output benötigen dagegen 80 % der Umsetzungszeit und verursachen somit die höchsten Aufwände. Beispiele für diese Gesetzesmäßigkeit finden sich in der Wirtschaft genügend: 80 % des Lagerplatzes beanspruchen etwa 20 % der Produkte eines Unternehmens; 80 % des Gesamtumsatzes  erzielen Unternehmen häufig mit 20 % ihre  Produkte oder Kunden; 80 % der Beschwerden kommen von 20 % der Kunden; 80 % von Softwareanwendern nutzen nur 20 % des Funktionsumfangs von Softwares. Gerade in der heutigen, durch fortlaufende Anpassungen geprägten Zeit, erzielen Transformationsmanager eine beschleunigte Umsetzung von Maßnahmen – wenn sie sich fokussieren und dabei ein Qualitäts- oder Umfangsniveau von rund 80 % anpeilen.

Mehr Vorhaben in gleicher Durchlaufzeit Im Zeitalter von sich stetig verändernden Anforderungen und Rahmenbedingungen erhöhen Unternehmen mit der Anwendung des Pareto-Leitprinzips ihre Transformationsgeschwindigkeit. Sie verkürzen ihre projektbezogene Ressourcenbindung durch Fokussierung auf Wesentliches - auf die wesentlichen 80 %. Und da kürzere Ressourcenbindung zu zusätzlicher Ressourcenverfügbarkeit führt, können Manager ihre  nicht mehr benötigte Kapazität auf zusätzliche Vorhaben umwidmen. So lassen sich mehr Initiativen in der gleichen Durchlaufzeit stemmen. Zusätzliche Geschwindigkeit durch Perfektionsvermeidung In Einzelfällen ist es durchaus erstrebenswert, Perfektion zu erreichen. Doch in den meisten Fällen werden es sich Unternehmen nicht mehr leisten können, ihre Organisation perfekt zu managen. Denn derjenige, der sein Geschäft heutzutage noch mit hohem Perfekti-

56

3  Mit 30 Prinzipien zum Digital Champion

onsstreben betreibt, läuft Gefahr, von seinen Wettbewerbern überholt zu werden und Anschluss an die schnellere und weniger perfekt agierende Konkurrenz zu verlieren. Mit Blick auf den organisatorischen Wandel lassen sich viele Aufgaben auf einem durchaus vertretbaren Qualitätsniveau von 60 bis 80 % erledigen. Dabei gilt allerdings, die Anstrengungen gezielt einzusetzen, denn nicht jedes Transformationsvorhaben eignet sich für eine fokussierte, spitze Umsetzung: Weder kritische Kernprozesse, die sicher und reibungslos laufen müssen, noch Cybersecurity, noch Kundenzufriedenheit sind Bereiche, bei denen eine grundsätzliche Güte von 80 % oder weniger ausreichen würde. Schnelles Ausprobieren neuer unperfekter Geschäftsideen Das digitale Zeitalter bietet sehr gute Ausgangsbedingungen, um neue Marktangebote in relativ kurzer Zeit auf ressourcenschonende Weise zu entwickeln und im Markt zu erproben. Statt hohe Summen in die Entwicklung komplexer Softwareprodukte und Anwendungen zu investieren, lassen sich die Vorhaben zunächst prototypisch in Form von sog. Minimum Viable Products – also kleinsten vermarktbaren Einheiten – entwickeln und in einem zweiten Schritt überprüfen, wie attraktiv und relevant der Markt die neuen Angebote einschätzt. Schaffen es die Marktverantwortlichen, eine Angebotsskalierung im Markt zu erreichen, produzieren sie ihr Produkt einfach noch mal auf Enterprise-­Technologie-­Niveau nach. Im Unterschied zur herkömmlichen Entwicklungspraxis sind die Entwicklungskosten, Entwicklungszeiten und Entwicklungsrisiken bis dahin verhältnismäßig gering geblieben.

3.1.3 Let’s (re)act agile! Seit Anbeginn der Menschheitsgeschichte lautet unser evolutionäres Grundprogramm: Anstrengungen vermeiden, Belohnungen maximieren. Dieses tief in unserer menschlichen DNA verankerte Programm hat sich in den vergangenen Jahrtausenden kaum verändert – die Umwelt um uns herum dagegen massiv. Bei Change lassen sich Anstrengungen nicht vermeiden. Beschleunigter Change bedeutet sogar noch mehr Anstrengungen. Wir befinden uns in einem vom beschleunigten technischen Fortschritt geprägten Umbruch mit einer gestiegenen Komplexität, die so gut wie jedes Unternehmen im Kern trifft und ein Umdenken bei Strategien, Organisationssteuerung und Projektumsetzung erforderlich macht: agile Modelle stehen daher zurecht so hoch im Kurs wie nie. Agile Unternehmensorganisation Agile Methoden und Werkzeuge greifen die Denk- und Arbeitsweisen digitaler Champions, Forschungseinrichtungen und Start-ups auf. Sie helfen etablierten Unternehmen, ihre Ergebnisse schneller und effizienter zu erzielen, Risiken von Fehlentwicklungen zu verringern oder neue Marktchancen in höherer Geschwindigkeit und Passgenauigkeit als

3.1  Digitales Fundament

57

bislang zu erschließen. Mit agilen Instrumenten und einer agilen Denkhaltung lassen sich anpassungsbereite und anpassungsfähige Organisationen schaffen, die die Chancen durch Digitalisierung und tiefe Technologien auf neue Art und Weise für sich nutzen. Ein weiterer Schlüssel zum erfolgreichen Wandel liegt demnach in einer agilen Unternehmensorganisation und Arbeitsweise. Über Agilität sollen Mitarbeiter wandlungsfähiger werden, flexibler denken und handeln. Dabei reicht es nicht aus, agile Methoden wie z.  B.  Scrum auf das unternehmensinterne Projektmanagement zu übertragen. Vielmehr fängt Agilität bereits in den Köpfen an: Agil zu sein bedeutet, bereit zu sein, etwas Gewohntes oder Sicheres loszulassen und gleichzeitig etwas Neues zu wagen, Experimente zuzulassen und Veränderungen zu akzeptieren. Eine agile Haltung ermöglicht vielen Mitarbeitern, mit Umweltveränderungen in Form von neuen Kundenbedürfnissen, Wettbewerbsverschiebungen oder Schlüsseltechnologien besser umzugehen. Agile Methoden im Rückblick In den 1990er-Jahren entwickelte der Softwareentwickler Ken Schwaber das Projektmanagement-­ Framework Scrum. Damit wollte er Organisationen unterstützen, wirksamer mit komplexen Softwareentwicklungsprojekten umzugehen. Etwas später prägte der Physiker und Softwareentwickler Mike Beedle den Begriff Enterprise Scrum. Der Begriff stand für die Skalierung von agilen Praktiken und Vorteilen über den Einsatz von Scrum in der gesamten Organisation. Im Jahr 1999 veröffentlichte Kent Beck seine Methode Extreme Programming, die bereits während der Entwicklungsphase von Softwareprogrammierung auf Codeverbesserungen durch Schlichtheit, Testläufe, paarweise Programmierung und Kundenfeedback („rapid feedback“) setzte. Gleichzeitig prägte Beck neue Rollen für Programmierer und Manager, die er als Coaches bezeichnet.

Agile Werte, Methoden und Prinzipien Agile Methoden und Praktiken basieren auf agilen Werten und Prinzipien, die sich im Lauf der letzten Jahrzehnte etabliert haben. Nachdem der Begriff agil die bei Softwareentwicklung gebräuchliche Bezeichnung leichtgewichtig ersetzte, entstand 2001 das Manifest für agile Software-Entwicklung, das siebzehn Vordenker wie Schwaber, Beedle und Beck unterzeichneten. Um verbesserte Wege bei Softwareentwicklung zu beschreiten, gaben die Vordenker insbesondere sozialen Punkten und häufigeren Interaktionen mehr Gewicht als Prozessen und Werkzeugen an sich. Darüber hinaus wiesen sie der Reaktion auf Veränderungen einen höheren Stellenwert zu als dem Befolgen von Plänen. Mithilfe von gestiegener Transparenz und Flexibilität sollten sich Systeme schneller entwickeln und Risiken im Entwicklungsprozess minimieren lassen. Über die Jahre hinweg, entwickelte sich agiles Arbeiten zu einer leichtfüßigen, flexi­ blen und dynamischen Arbeitsweise mit einem minimierten Maß an Bürokratie. Dabei verteilten agil arbeitende Unternehmen die Verantwortung weg vom Management hin zu Arbeitsteams, die Verantwortung für ihr eigenes Handeln übernahmen. Statt ihre Mitarbeiter anzuleiten und zu kontrollieren, nahmen Führungskräfte zunehmend die Rolle des Unterstützers und Motivators ein. Klare Ziele und Leitlinien ersetzten nach und nach die kleinteilige Planung und ermöglichten auf diese Weise eine schnelle Reaktion bei Verän-

58

3  Mit 30 Prinzipien zum Digital Champion

derungen und unerwarteten Ereignissen. Wenngleich agiles Arbeiten nicht für jedes zu lösende Problem im Unternehmen einen Königsweg darstellt, setzen immer mehr Unternehmen auf agile Werte und Prinzipien, wie sie in Tab. 3.1. zu finden sind. Ihr Ziel dahinter: ­Effizienzvorteile ausschöpfen und ein höheres Maß an Reaktionsfähigkeit bei Veränderungen realisieren (Sörensen 2018). Tab. 3.1  Übersicht zu agilen Werten und Prinzipien 1

Wert bzw. Prinzip Nachhaltige Geschwindigkeit

2

Einfachheit

3

Kundenpriorität durch frühe und häufige Ergebnisauslieferungen

4

Regelmäßiges Feedback

5

Agile Prozesse

6

Cross-funktionale Zusammenarbeit

7

Streben nach Exzellenz

8

Direkte Kommunikation

9

Ehrlichkeit

10 Offenheit 11 Respekt 12 Selbstorganisation 13 Selbstreflexion 14 Optimales Umfeld

15 Vertrauen

Kurzbeschreibung Schaffung von Verlässlichkeit und Vermeidung von unnötigem Arbeitsdruck durch Kontinuität und gleichmäßiges Arbeitstempo Auswahl einfachster Lösungen, die großen Nutzen versprechen; Beachtung des KISS-Prinzips; Vermeidung von Arbeiten ohne Nutzwert Auslieferung von Ergebnissen und Teilentwicklungen in bevorzugt kurzen Zeitspannen; Bereitstellung von funktionierender Software in Form von (Beta-)Produkten und (Beta-)Services innerhalb weniger Wochen oder Monate Frühe und häufige Abstimmung; regelmäßige Einholung von Feedback innerhalb und außerhalb der agilen Teams Kürzung von Entwurfsphasen auf ein Mindestmaß; flache Aufwandskurven; Balance zwischen Flexibilität und Stabilität; ständige Interaktion zwischen Prozessbeteiligten; hohe Transparenz Punktuelle und übergreifende Zusammenarbeit mit allen zur Aufgabenerfüllung erforderlichen Managern, Fachbereichen und Kompetenzträgern Lösungen durch Teammitglieder, die über ein hohes Maß an fachbezogenen und sozialen (Team-)Fähigkeiten verfügen Effektive und regelmäßige Austausche; direkte und kurze Kommunikationswege Ehrliche Mitteilung von Projektfortschritten und Schätzungen Transparente Mitteilung aller relevanten Projektinformationen Respektvoller Umgang untereinander Bessere Architekturen, Anforderungen, Planungen und Umsetzungen entstehen in selbstorganisierten Teams Regelmäßige (Team-)Reflexionen zur Effektivitätssteigerung und Verhaltensanpassung Sicherstellung von Rahmenbedingungen und Unterstützungen, die zur motivierten Aufgabenerfüllung benötigt werden Entgegengebrachtes Vertrauen des Managements, dass die agilen Teams die vorgesehenen Aufgaben meistern

3.1  Digitales Fundament

59

Use Cases: Arbeiten in agilen Teams

Agile Projektsteuerung bedarf einer gründlichen Vorbereitung. Erfahrungsgemäß dauert die Initiierung häufig länger als erwartet, denn zu verschieden sind die Arbeitsweisen im Vergleich zu den langjährig vollzogenen klassischen Arbeitsstilen. In der Regel gibt es auch deutlich mehr zu bewältigende Aufgaben als verfügbare Kapazitäten. Dadurch lassen sich Sprints und Aufgaben nicht immer wie geplant abschließen. Agiles Arbeiten verläuft fließend – zwischen Querschnittsprojekten, die dauerhaft laufen, und Projekten, die sich bereits nach relativ kurzer Zeit abschließen lassen. Auch Kleinprojekte lassen sich agil steuern, wenn mehrere Kompetenzen benötigt werden. In größeren Unternehmen nehmen die wichtigsten Mitglieder aus allen involvierten agilen Teams vor Ort oder per Videokonferenz an sog. Big Room Plannings teil. Hier vereinbaren die Teams, welche Themen durch wen in der nächsten Etappe umgesetzt werden sollen. Die beteiligten Teams sind dabei angehalten, sich auf ihre priorisierten Aufgaben zu fokussieren und die als machbar zugesagten Ergebnisse anzustreben. In der Regel nehmen auch Mitglieder des Managementteams an diesen großformatigen Austauschen teil, um Projekte oder Programmlinien zu priorisieren, kritische Priorisierungskonflikte nach intensivem Ringen um beste Lösungen voranzureiben und Kapazitäts- und Budgetfragen zu klären. Agiles Arbeiten erfolgt von Unternehmen zu Unternehmen unterschiedlich. Die nachfolgenden Profile zeigen zwei Beispiele aus der agilen Unternehmenspraxis. Beispiel Konzern Financial Services Beschäftigte insgesamt: 4000 Agile Teams: 120 Teilnehmer in agilen Teams: 800 Teamgröße: 3–40 Personen Big Room Plannings: alle drei Monate Projektdauer: Eine Woche bis ein Jahr

Beispiel KMU Cloud-Dienstleister Beschäftigte: 250 Agile Teams: 20 Teilnehmer in agilen Teams: 150 Teamgröße: 3–20 Personen Plannings: wöchentlich Projektdauer: Eine Woche bis drei Monate

3.1.4 Factor 10 – Let’s think and deliver big! „Entweder es ist um Faktor 10 besser oder wir lassen es sein!“ – Google-Gründer Larry Page nennt es das „10x Thinking Mindset“. Die Silicon-Valley-Maxime steht für mutiges, optimistisches, ausgiebiges und weitreichendes Denken. Etwas um 10 oder 20 % zu optimieren, ist keine wirkliche Option. Factor-10-Anwender suchen plausible Antworten auf die Frage, wie sie es zehnmal leistungsfähiger, schneller, für Kunden bequemer oder kostengünstiger hinzubekommen ist als nur 1,5 % besser. Der Seriengründer und Investor Frank Thelen spricht in diesem Kontext von einer „10x DNA“. Diese ist gekoppelt an Entscheidungen, die Führungskräfte und Mitarbeiter jeden Tag aufs Neue treffen können.

60

3  Mit 30 Prinzipien zum Digital Champion

Factor-10-Fragen: Wie können wir ...

1. einen Prozess zehnmal effizienter gestalten? 2. mit unserem Produkt bzw. Service zehnmal mehr Umsatz generieren? 3. unsere Betriebskosten um Faktor 10 senken? 4. unsere Reichweite und Konversionsrate um Faktor 10 erhöhen? 5. unseren technologischen Vorsprung um das Zehnfache ausbauen? 6. den Kundennutzen um Faktor 10 steigern? 7. unsere Kundenzufriedenheit um Faktor 10 erhöhen? 8. unsere Kundensupportqualität um Faktor 10 verbessern? 9. unsere Produktentwicklungszeit um Faktor 10 verkürzen? 10. zehnmal besser sein als unser größter Wettbewerber?

Die Grenzen des Denkens um ein Vielfaches ausdehnen Das Denken in Factor-10-Dimensionen veranlasst die Führungskräfte, ambitioniertere Maßstäbe und Ziele zu setzen, um anspruchsvollere Ergebnisse zu erreichen – statt einfach nur genauso gut oder etwas besser zu sein als der Wettbewerb. Das Prinzip geht mit großen Gedankensprüngen einher, die mithilfe kreativer Vorstellungskraft, Problemlösungskompetenz und höheren Freiheitsgraden bei der Umsetzung, die Grenzen des bisher als machbar Eingestuften nach außen verschieben. Alles Etablierte zu hinterfragen, loszulassen, neu zu denken und dabei v. a. groß zu denken, soll zu mehr Output oder deutlich besseren Ergebnissen führen. cc

Factor 10 bei der Strategiearbeit  Der Faktor-10-Ansatz lässt sich bei der Strategiearbeit als Methode anwenden. Zum Beispiel können Unternehmen ihre bisherigen Überlegungen und ihr Zielbild zur zukünftigen Ausrichtung ihrer Organisation um ein deutlich ambitionierteres Factor-10-Szenario ergänzen  – auch wenn dieses auf den ersten Blick unrealistisch wirken mag und Bodenhaftung vermissen lässt. Anschließend legen sie beide Ansätze neben­ einanderlegen und lassen diese auf sich wirken. Durch den Vergleich werden die Akteure häufig mutiger und ambitionierter  - sie  verschieben einige der bisherigen strategischen Zielparameter nach außen. Hatte ein Entscheider ursprünglich eine Steigerung oder Senkung von 10 % im Sinn, hält er durch das Denken in größeren Dimensionen plötzlich größere Sprünge wie 15 oder 20 % für nicht mehr ganz so abwegig oder zumindest für potenziell machbar. Darüber hinaus können ganz andere Lösungspfade entstehen, denn Factor 10 impliziert ein Umdenken und wenn notwendig, auch radikales Neudenken. Es schafft zusätzlichen gedanklichen Raum, um mit größer skizzierten Umsetzungsszenarien Veränderungen auf 1000-Prozent-Niveau zu realisieren.

3.1  Digitales Fundament

61

3.1.5 A  mbidextrie: beidhändiges Management von Kerngeschäft und Neuland In Zeiten des vor uns liegenden massiven Wandels stehen die Unternehmen mehr denn je vor der Herausforderung, wettbewerbsfähig zu bleiben. Dabei stellt die ungewisse und wenig bis kaum planbare Welt von morgen hohe Ansprüche an das Top-Management, im Spannungsfeld zwischen Stabilität und Veränderung richtig zu entscheiden und richtig zu agieren. In seinem viel beachteten Ansatz zum dualen Betriebssystem skizzierte der Professor für Unternehmensführung an der Harvard Business School, John Kotter, neben der klassischen hierarchischen Struktur eine zweite, netzwerkartige Struktur. Diese konzen­ triert sich auf die Erforschung von neuen Technologien und die Expansion auf neue Märkte sowie die Erweiterung von bestehenden Kernkompetenzen auf bestehenden Märkten (Kotter 2012). Mit einer gezielten Erweiterung von Umfang, Zuständigkeiten und ­Einflussmöglichkeiten kleinerer, informeller Netzwerke sollen sich – so Kotter – Aufgaben schneller und günstiger erledigen lassen als klassisch über hierarchisch organisierte. Das Prinzip dahinter: zwei Strukturen, eine Organisation. Duales Organisationsprinzip Das duale Organisationsprinzip besagt, dass zukunftsorientierte Organisationen einerseits ihr Kerngeschäft bestmöglich ausnutzen und andererseits darauf achten, immer wieder neue Geschäftschancen zu erschließen. Gemeint ist damit die organisatorische Fähigkeit, sowohl effizient als auch flexibel, agil und mutig zu agieren. Denn wer den Mut hat, sich selbst zu hinterfragen und zu kannibalisieren und darüber hinaus immer wieder neue kreative, digitale Lösungen für neue Kundenbedürfnisse entwickelt und im Markt erprobt, bleibt auf Dauer wettbewerbsfähig. Unternehmen, die dieses duale Organisationsprinzip beherrschen, sind ihrem Wettbewerb voraus. Beim traditionellen Kerngeschäft achten sie auf die Ausschöpfung, fortlaufende Optimierung und Weiterentwicklung etablierter Erfolgsmuster. Dabei setzen sie auf bewährte Faktoren aus der Vergangenheit wie Formalisierung, Regelkonformität, geringe Risiken, feste Strukturen, Prozesse und Qualität. In Abgrenzung dazu setzen parallele New-Business-Organisationseinheiten oder ein sog. Innovation Hub auf Kreativität, Risikobereitschaft und Brechung von eingefahrenen Mustern und Routinen. Hier gilt es, das bestehende Betriebsmodell bewusst zu ignorieren, zu lernen, sich zu erneuern und auf intuitive, experimentelle Weise neue Märkte und Technologien zu erkunden (Grabmeier 2018). Strukturelle Ambidextrie vs. kontextuelle Ambidextrie Da sich viele Parameter in unsicheren Umfeldern jederzeit ändern können, setzen ambidextre Manager auf Experimente und Evaluationen mit kurzen Lernschleifen. Sie stellen Bewährtes und Grundsätzliches infrage („question everything“) oder zumindest auf den Prüfstand. Gleichzeitig sichern sie das experimentelle Handeln durch Umsatz und Profitabilität aus dem bestehenden Kerngeschäft ab. Diese Fähigkeit, sowohl kostenbewusst effizient als auch flexibel und effektiv zu agieren, wird mit dem Begriff der organisationalen Ambidextrie verdeutlicht (Buchholz und Knorre 2019).

62

3  Mit 30 Prinzipien zum Digital Champion

Als Teildisziplin der organisationalen Ambidextrie steht die strukturelle Ambidextrie für die räumliche Trennung der im Spannungsfeld zwischen Stabilität und Veränderung betriebenen Organisationseinheiten. Dabei arbeiten die etablierten Geschäftsbereiche räumlich getrennt von Forschungs-und-Entwicklungs- und Innovationsabteilungen. Kontextuelle Ambidextrie beschreibt dagegen einen Ansatz, bei dem beide Organisationseinheiten nicht zeitlich oder strukturell streng getrennt sind, sondern ihre Aktivitäten innerhalb einer Organisation oder eines Führungskontextes gleichzeitig stattfinden lassen (Duwe 2016). Ambidextre Organisationen sind erfolgreicher Ambidextrie steht für das gleichzeitige Management von traditionellem Kerngeschäft und damit der Ausnutzung von Bestehendem sowie der Erkundung von Neuem, um sowohl effizient als auch anpassungsfähig zu agieren (O’Reilly und Tushman 2016). Im Zentrum befindet sich das parallele Orchestrieren und Ausbalancieren von Exploration, dem Erschließen von technologischem Neuland, neuer digitaler Geschäftsmodelle und neuer digitaler Märkte sowie Exploitation, dem Ausbau und der evolutionären Weiterentwicklung des etablierten Geschäfts. Im Idealfall koexistieren beide Welten nebeneinander und beflügeln sich gegenseitig. Forschungsuntersuchungen haben gezeigt, dass Organisationen, die Ambidextrie beherrschen, erfolgreicher sind als Organisationen, denen diese Fähigkeit fehlt (Raisch und Birkinshaw 2008). Somit bietet die Ambidextrie Führungskräften nicht nur ein maßgeschneidertes Denkmodell, um die Gegenwart mit der digitalen Zukunft zu verbinden, sondern ein aus vielen Perspektiven empirisch erforschtes Fundament mit strategischen Handlungsoptionen für den Unternehmensalltag (Duwe 2016). Praxisbeispiel: Ambidextrie bei Mobilität

Der Paradigmenwechsel von konventionellen Automobilantrieben, wie dem Otto- oder Dieselantrieb zu elektrifizierten Antrieben stellt Fahrzeughersteller vor große Herausforderungen. Um den sich verändernden Rahmenbedingungen wie neuen Mobilitätsbedürfnissen von Kunden oder der staatlichen Regulierung von CO2-Emissionen erfolgreich zu begegnen, erweist sich das beidhändige Management von bestehenden und wiederentdeckten Technologien für Fahrzeughersteller als geeignetes Prinzip. Sie ergänzen ihre konventionelle Technologie der langjährig stabilen Branche um das neue Geschäftsmodell des Elektroantriebs, was eine enge Abstimmung der parallelen Aktivitäten und Organisationsbereiche abverlangt (Stephan und Kerber 2010). Zudem erfordert dies die Einbeziehung der Entwickler von traditionellen Verbrennungsmotoren in die Produktion von Elektrofahrzeugen, um an die Fahrzeugtradition des eigenen Unternehmens anzuknüpfen und das Unternehmens- und Produktimage auf die neue Fahrzeuggattung zu übertragen.

Wie Top-Manager Spannungen ausbalancieren Das beidhändige Management der unterschiedlichen Strukturen erfordert von Top-­ Managern, sich kontinuierlich darüber klar zu werden, in welchem Kontext sie gerade agieren, und einen Weg zu finden, wie sie mit widersprüchlichen Anforderungen umge-

3.2  Digitale Standortbestimmung

63

hen, die Spannungen balancieren und ein Gleichgewicht herstellen (Birkinshaw und Gibson 2004). Aus diesem Grund setzen erfolgreiche Top-Manager mit der einen Hand klassische Top-down-Entscheidungen durch, um Stabilität und Effizienz zu gewährleisten. Und mit der anderen Hand motivieren sie schnelle, vernetzte und selbstorganisierte Einheiten. Sie schaffen sinnvolle Abgrenzungen zwischen beiden Organisationseinheiten, ohne diese komplett voneinander zu trennen. Weiterhin lösen sie typische Zielkonflikte auf: Denn Exploitation geht einher mit sicher umsetzbaren Potenzialen und Verbesserungen – auf kürzerer Zeitachse. Dagegen steht Exploration für unsichere Potenziale, wenn es darum geht, auf mittlerer bis langer Zeitachse neue digitale Marktangebote zu etablieren, neue Märkte zu erobern oder sich neu zu positionieren. Weiterhin stellen  ambidextre Top-Manager sicher, dass exploitative Geschäftsbereiche nicht versuchen, die explorativen Einheiten zu verdrängen oder zu ignorieren, da letztere meist keine kurzfristigen Geschäftsnutzen vorweisen können und deshalb mit wenig Vertrauen der Etablierten rechnen können. Neben der unverminderten Konzentration auf das operative Kerngeschäft stellt die Führungsetage angemessene Ressourcen für das neue Neue bereit: für neue Märkte, neue Technologien und neue Geschäftsmodelle. Das Ganze führt schneller und nachhaltiger zum Erfolg, wenn von Anfang an Brücken gebaut werden zwischen Kerngeschäft und Neuland.

3.2

Digitale Standortbestimmung

Am Anfang jeder Transformationreise ist es für die Chefetage unumgänglich, zu ermitteln, wo das eigene Unternehmen aktuell steht, um eine durch differenzierte Betrachtung eindeutige Ausgangsbasis für den Transformationsprozess und Veränderungsbedarfe zu schaffen.

3.2.1 B  lick nach innen – Analyse der digitalen Reifegrade des Unternehmens Über eine ganzheitlich ausgerichtete Analyse lassen Unternehmen im ersten Schritt die digitalen Reifegrade ihrer Organisation analysieren, um herauszufinden, in welchem Digitalisierungsstadium sich ihr Unternehmen momentan befindet. Dabei werden unternehmensindividuelle Schwachstellen und Potenziale identifiziert und Handlungsfelder abgeleitet für eine ganzheitlich ausgerichtete, gezielte, digitale Weiterentwicklung der Organisation. Über die digitale Standortbestimmung finden Unternehmen zum Beispiel heraus, • wie offen ihre Mitarbeiter gegenüber Digitalisierung und notwendigen organisatorischen Veränderungen eingestellt sind; • wie schnell und agil die aktuellen Strukturen des Unternehmens auf den Wandel reagieren können; • welche Art von Kundenerlebnissen an Kundenkontaktpunkten geschaffen werden;

64

3  Mit 30 Prinzipien zum Digital Champion

• wie breit und tief die digitalen Kompetenzen innerhalb der Organisation ausgeprägt sind; • welche digitalen Technologien bereits  eingesetzt werden, um die Betriebskosten zu senken oder die Kundenzufriedenheit zu erhöhen. Breitere multidimensionale Betrachtung Der Transformationsprozess der nächsten Generation ist vielschichtiger geworden. Umfassten die in der Literatur gängigen Analysemodelle bislang meist sechs bis acht Dimensionen, kommen bei der zweiten Transformationswelle weitere hinzu. Um ein Unternehmen mit Blick auf das bevorstehende künstlich intelligente Zeitalter in seiner gesamten DNA ganzheitlich fundiert erfassen, ist ein differenzierteres Vorgehen mit insgesamt zwölf Dimensionen empfehlenswert. In den nachfolgenden Kapiteln werden alle Dimensionen detailliert dargestellt: 1. Digitale Strategie 2. Digitale Geschäftsmodelle 3. Digitale Produkte und Services 4. Digitale Kundenerlebnisse 5. Digitale Führung 6. Digitale Attitüde 7. Digitale Zusammenarbeit 8. Digitale Kompetenzen 9. Digitale Prozesse 10. Digitale Technologien und IT-Systeme 11. Digitale Daten und Datenwertschöpfung 12. Digitales Transformationsmanagement

Evaluationsziele und Evaluationsdesign Reifegradmodelle gewährleisten eine hinreichende Neutralität und Vergleichbarkeit bei der Bewertung des Digitalisierungspotenzials. Neben der Ermittlung der Reifegradausprägungen liegt ein weiteres Augenmerk auf der Lokalisierung von Defiziten und Identifikation von Potenzialfeldern. So lassen sich Startpunkte zur Weiterentwicklung der Organisation bestimmen und erste grobe strategische Stoßrichtungen ableiten. Aus den zunächst als weiche Faktoren kennzeichenbaren Potenzialempfehlungen werden in der Phase der Strategieentwicklung messbare Handlungsfelder. Zur Ermittlung der digitalen Reifegrade der Organisation betraut die Unternehmensleitung i. d. R. externe Dienstleister mit der Durchführung und Auswertung von Interviews bei Führungskräften und Fachverantwortlichen, die sie hierarchieübergreifend, cross-­ divisional und cross-funktional auswählen. Über umsichtige Fragestellungen stellen sie individuelle und neutrale Einblicke und Handlungsempfehlungen sicher. Unabhängig davon, ob die Evaluation dabei qualitativen oder quantitativen Charakter oder eine Misch-

3.2  Digitale Standortbestimmung

65

form aufweist – kommt es auf die richtigen Fragestellungen an, um eine gesicherte Einstufung der Reifegradausprägungen vornehmen zu können. Mit zunehmender Anzahl an Interviews sinkt erfahrungsgemäß die Interpretationsunschärfe. In der Praxis haben sich 18 bis maximal 30 Interviews als sinnvolle Evaluationsgröße bewährt. Beinhalten 18  Interviews in Einzelfällen noch ein gewisses Maß an ­Unschärfe, nimmt diese mit weiteren Interviews ab und erreicht in der Regel spätestens nach 30 Interviews ein belastbares Maß, um eine robuste Einstufung der Digitalisierungsgrade zu ermöglichen. Bei mehr als 30 durchgeführten Interviews bleibt es fraglich, ob die erzielbaren Erkenntnisgewinne die aufzubringenden Zusatzaufwände noch rechtfertigen. Dagegen machen wir regelmäßig gute Erfahrungen, wenn wir neben den internen Interviews eine Hand voll zusätzliche Interviews mit externen Geschäftspartnern (Lieferanten, Kunden, IT-Dienstleistern) durchführen können, da diese das Unternehmen aus ein einem ganz anderen Blickwinkel betrachten  und gelegentlich  überraschende Details ins Spiel bringen. Sind die Interviews abgeschlossen und ausgewertet, werden die jeweiligen digitalen Reifegrade je Transformationsdisziplin ermittelt und grafisch wie in Abb. 3.1 visualisiert. Eine häufig gewählte Darstellungsform ist das Netzdiagramm, da es alle Ausprägungen auf einen Blick anzeigt. Wurde eine bestimmte Disziplin als digital fortgeschritten eingestuft, befindet sich ihre Ausprägung im Diagramm weiter außen. Digital vernachlässigte Disziplinen finden sich in der Mitte des Diagramms wieder.

Abb. 3.1  Digitaler Reifegrad als Netzdiagramm

66

3  Mit 30 Prinzipien zum Digital Champion

3.2.2 Differenzierte Reifegradanalyse mittels Heatmap Legen Unternehmen Wert auf eine noch fundiertere Auswertungsform, die über Reifegrade je Transformationsdisziplin hinausgeht, können sie eine Heatmap erstellen. Diese skizziert ein digitales Wärmebild der Gesamtorganisation. Angelehnt an Ampelfarben zeigen bis zu sechs Farbabstufungen die Reifegradniveaus präziser an. Sechs Farbabstufung sind gegenüber drei Ampelfarben überlegen, da häufig keine klare Einstufung möglich ist und somit Nuancen besser sichtbar werden. Ein weiterer Grund liegt in der gelernten Signalwirkung, die von Farben ausgeht. Ein Hellrot oder Orange als Zwischenfarbe zwischen Rot und Gelb wirkt erfahrungsgemäß weniger alarmierend als ein Rot und sorgt damit für weniger Diskussionen bei politisch brisanten Themen. Denn kein Verantwortungsträger sieht seinen Bereich gern rot. Durch die Farbabstufungen ist der Informationsgehalt von Heatmap-Visualisierungen höher als bei klassischen Netz- oder Balkendiagrammen. Entscheider sehen auf einen Blick, in welchen Transformationsbereichen möglicherweise deutlich Nachholbedarf besteht (Rottöne), welche Disziplinen digital fortgeschritten (Gelbtöne) oder bereits weitgehend transformiert (Grüntöne) sind. Die besten Erkenntnisgewinne lassen sich mit nicht zu granular aufgebauten Ausgabeschemata erzielen, da es Unternehmen überfordern kann, wenn beispielsweise über 100 Kategorien und Farbcodes zu interpretieren sind. Unternehmen mit dem Anspruch auf ein höheres Maß an Granularität setzen daher entweder auf 24, 36 oder, wie in Abb. 3.2 skizziert, auf maximal 48 Analysedimensionen, bei denen jedes Cluster für sich einen eigenen Farbwert aufweist. Im Gegensatz zur klassischen Reifegradanalyse unterscheiden sich die Interviews bei der Heatmap-­Analyse durch einen höheren Umfang an Fragen und ein weniger offenes Frage-Set.

Abb. 3.2  Digital Readiness Heatmap mit 48 Dimensionen und sechs Farbabstufungen

3.2  Digitale Standortbestimmung

67

3.2.3 B  lick nach außen: Analyse von Wettbewerb, Trends und Technologien Neben der Ermittlung der internen digitalen Reifegrade spielt die Analyse des Umfelds eine zentrale Rolle, um ein gesamtheitliches Bild zum digitalen Status quo zu erhalten. Analyse der relevanten Wettbewerber In Anlehnung an Michael Porters Branchenstrukturanalyse steigt mit höheren digitalen Reifegraden die potenzielle Marktmacht von digitalisierten Kunden und Lieferanten. Darüber hinaus steigt die Bedrohung durch bestehende Wettbewerber, Anbieter von Ersatzrprodukten und Disruptoren, die mit höherer digitaler Reife meist schneller und besser in der Lage sind, die Kundenschnittstelle bedarfsgerecht zu bedienen. Und ganz gleich, ob es etablierte oder junge, risikokapitalfinanzierte Wettbewerber sind, die die Kundenschnittstelle relativ besser bespielen können, laufen Unternehmen Gefahr, ihre Kunden an das digitalisiertere Marktumfeld zu verlieren. Dies gilt insbesondere  dann, wenn es bereits deutlich stärker digitalisiert ist als das eigene Unternehmen. In diesem Fall besteht akuter Handlungsbedarf zeitnah zu den relevanten  Marktakteuren aufzuschließen, die in ihrer digitalen Reife auf Prozess-, Produkt-, Marketing-, Vertriebs- oder Kundendienstebene weiter fortgeschritten sind. Beispielhafte Kriterien zur Bewertung des digitalen Wettbewerbsumfelds finden sich in der Tab. 3.2. Analyse der relevanten Trends Markttrends zeigen potenziell relevante Strömungen, Wandlungsprozesse und Veränderungsbewegungen außerhalb des eigenen Unternehmens an. Dazu gehören Veränderungen von Kundenwünschen oder Kundenverhalten, wie z. B. eine Zunahme an mobilen Bestellungen über Smartphones. Eine regelmäßig durchgeführte Trendanalyse versetzt Entscheider einerseits in die Lage, bedeutsame Entwicklungen des Marktumfelds frühzeitig zu identifizieren und andererseits hinsichtlich ihrer Bedeutung und Auswirkung auf die kurz-, mittel- und langfristige Organisationsausrichtung zu bewerten (Kempfle 2014). Beispielhafte Kriterien zur Analyse und Bewertung von Markttrends zeigt die Tab. 3.3. Tab. 3.2  Beispielhafte Kriterien zur Bewertung der digitalen Wettbewerbssituation Digitale Reife relevanter Wettbewerber und Ventures

1. Digitale User Experience 2. Digitale Touchpoints 3. Digitalisierte Produkte und Services 4. Etablierung neuer Geschäftsmodelle 5. Digitale Sichtbarkeit im Markt 6. Digitale Herkunft von Webseitenbesuchern 7. Digitale Transformationsmeilensteine

68

3  Mit 30 Prinzipien zum Digital Champion

Tab. 3.3  Beispielhafte Kriterien zur Bewertung von Trends Trends 1. Megatrends als langfristig prägende Entwicklungen 2. Makrotrends als spezifische Ausprägungen von Megatrends 3. Trendstärke bzw. Auswirkung auf das eigene Geschäft 4. Markttreiber und Kausalitäten als trendbestimmende Einflussfaktoren, die Trends auslösen oder deren Richtung bestimmen 5. Use Cases bzw. Anwendungsbeispiele Tab. 3.4  Beispielhafte Kriterien zur Bewertung von Technologieattraktivität Neue Technologie

1. Technologische Reife 2. Kommerzialisierungsgrad bzw. Technologieführer im Markt 3. Use Cases bzw. Anwendungsbeispiele 4. Einsatzbereiche im Unternehmen 5. Nutzen bzw. Wettbewerbsvorsprung durch Technologieeinsatz 6. Patentanmeldungen 7. Synergien durch Technologieverknüpfung 8. Relevanzeinschätzung auf Zeitachse t1, t2, t3 9. Investition bzw. Dauer bis zur Markteinführung

Analyse der relevanten Technologiefelder Eine qualifizierte Technologieanalyse gibt Unternehmen Anhaltspunkte zu potenziellen Risiken und v. a. Geschäftschancen, die mit einem neuen Technologiefeld einhergehen, um Aussagen zur Attraktivität und Relevanz einer Technologie zu treffen. Dabei befasst sich die Technologieattraktivität nicht nur mit Fragen zur Größe des Marktvolumens oder zum erwarteten Entwicklungspotenzial einer Technologie (Haupt 2004). Zusätzlich spielen weitere Faktoren innerhalb des betrachteten Technologiefelds oder durch Kombination einer Technologie mit weiteren Technologien eine Rolle. Im Kap. 5 beschreibt das digitale Technologierad die 20 Technologien unserer Zeit, die jede für sich einer Analyse bedürfen. Welche technologiebezogenen Bewertungskriterien dabei zum Einsatz kommen können, zeigt die Tab. 3.4. Auch bei der  Bewertung des Marktumfelds setzen Unternehmen häufig auf externe Unterstützung. So minimieren sie Verzerrungen bei der Datenerhebung und greifen auf langjähriges Erfahrungswissen im Umgang mit digital relevanten Betrachtungsdimensionen zurück. Meist schließen digitale Umfeldanalysen mit einem Scoring-Modell ab. Das Prinzip dahinter: Die Quantifizierung ermöglicht Kennzahlenvergleiche und Fortschrittsmessungen bei zukünftig durchgeführten Analysen.

3.2.4 Bewertung und Priorisierung von Potenzialfeldern Ist der Blick nach innen und außen abgeschlossen, geht es im nächsten Schritt darum, die einzelnen Potenziale in eine Chancenmatrix zusammenzuführen und jede Chance für sich zu bewerten. In dieser Phase lassen sich folgende Fragen stellen:

3.3 Digitalstrategie

69

Auswirkung: Welche Potenzialfelder haben die größte Hebelwirkung? Dauer: Auf welcher Zeitachse lassen sich Verbesserungen erzielen? Ressourcen: Welche Ressourcen müssen zur Verfügung gestellt werden? Kraftakt: Was würde die Organisation derzeit überfordern? Wie viele Veränderungen können der Organisation derzeit zugemutet werden? • Akzeptanz: Wo ist die voraussichtliche Akzeptanz hoch, wo niedrig? • Alternativlos: Welche Potenziale sollten unbedingt gehoben werden? • • • •

Zur  Potenzialbewertung fließen weitere Faktoren in den Entscheidungsfindungsprozess ein, wie z. B. historische Verläufe („verbrannte Erde“), unternehmenspolitische Überlegungen (interne Überzeugungsarbeit) und das gute altbewährte, intuitive Bauchgefühl (somatische Marker). Am Ende des Prozesses der Reflexion und Abwägung bringen die Verantwortlichen die Potenzialfelder in eine kohärente Rangfolge. In der Praxis sind es dann meist diejenigen Disziplinen, die noch ein relativ geringes digitales Reifegradniveau aufweisen oder von relevanten Wettbewerbern bereits deutlich besser umgesetzt werden. So kann sich ein Unternehmen, das bislang keinen Fokus auf Digitalmarketing gesetzt hat, nicht länger leisten, darauf zu verzichten, wenn seine Mitbewerber bereits eine hohe digitale Sichtbarkeit im Markt haben und viele Kunden über digitale Kanäle suchen, kommunizieren, vergleichen und einkaufen. Dessen ungeachtet brauchen Unternehmen nicht zwingend in allen Digitaldisziplinen Spitzenplätze zu belegen. Es sein denn, das Gros der Geschäftspartner befindet sich bereits in einem sehr fortgeschrittenen Digitalisierungs­ stadium.

3.3

Digitalstrategie

Digital transformierte Unternehmen machen mehr Umsatz und sind profitabler. Unternehmen, die ihr Geschäftsmodell über den Einsatz digitaler Technologien verändern, haben mehr Umsatzwachstum, eine höhere Profitabilität sowie einen größeren Unternehmenswert als andere Unternehmen (Westermann et al. 2012). Im Rahmen der am MIT im Center for Digital Business durchgeführten Studie wurden über einen Zeitraum von zwei Jahren etwa 400 weltweit agierende Großunternehmen untersucht und 470  Manager zum Einsatz und Nutzen digitaler Technologien wie Social Media, Mobilitätslösungen, Analysetools sowie intelligenter Systeme oder Anwendungen zur verbesserten Steuerung der Wertschöpfungskette befragt. Diejenigen Unternehmen, die in ihrer digitalen Transformation bereits weit fortgeschritten waren, profitierten von ihrem digitalen Vorsprung am meisten. Sie erzielten einen um 9 % höheren Umsatz – gemessen am Kapitaleinsatz und an der Zahl der beschäftigten Mitarbeiter. Zudem wiesen die digitalen Vorreiter einen um 26 % höheren Gewinn und um 12 % höheren Unternehmenswert aus. Dabei setzten alle Vorreiter auf eine Digitalstrategie, die sie konsequent im Unternehmen umsetzten.

70

3  Mit 30 Prinzipien zum Digital Champion

3.3.1 Grundlegendes Digital- und KI-Verständnis im Management „Wer den Hafen nicht kennt, in den er segeln will, für den ist kein Wind der richtige“, ließ der römische Philosoph Seneca damals verkünden. Die GfK befragte 2018 rund 2000 deutsche Unternehmen zum digitalen Wandel. Die Studienergebnisse zeigten eine offenkundige Abweichung zwischen der Eigenwahrnehmung von Führungskräften und den durch Digitalisierung bedingten realen Herausforderungen. So verstanden die meisten Befragten unter digitaler Transformation eine Digitalisierung ihres Geschäftsmodells und ihrer analogen Prozesse. Jeder zweite Befragte sah die eigene Branche einem starken oder sehr starken Wandel ausgesetzt – doch nur rund 20 % erwarteten einen ähnlichen Wandel im eigenen Geschäftsmodell. Für weniger ein Drittel der Unternehmen gehörte die Entwicklung neuer digitaler Geschäftsmodelle sowie Produkte und Servicegeschäfte zur digitalen Transformation dazu. Eine Bedrohung durch Start-ups oder große Internetgiganten wie Google, Amazon, Facebook oder weitere Tech-Giganten aus dem Silicon Valley – die jederzeit auf der Bildfläche auftauchen und das etablierte Geschäftsmodell durcheinanderwirbeln können – sahen die meisten Unternehmen dagegen nicht. Lediglich 7 % erkannten in Start-ups eine ernst zu nehmende Gefahr. Wie digital-ready ist der Führungrkeis?  Um eine substanzielle, Märkte und Technologien berücksichtigende Digitalstrategie mit Nachhall zu entwickeln, benötigt das Top-Management ein grundlegendes Digitalverständnis. Gemeint ist damit, dass möglichst die treibenden Akteure im obersten Führungskreis die digitale Sprache beherrschen oder im besten Fall über digitale Expertise verfügen. Denn diejenigen, die Digitalisierung verstehen, fühlen sich mit der Komplexität der überlappenden Themen nicht überfordert. Mit klarem und ganzheitlichem Blick auf die Dinge fällt es ihnen leichter, wertvolle Impulse zur digitalstrategischen Weichenstellung zu geben. Trotz dieser wichtigen Voraussetzung für die erfolgreiche Umsetzung von Transformation treffe ich in der Praxis immer noch häufig auf unterdurchschnittlich entwickelte Digitalkompetenz auf Vorstands- oder Geschäftsführungsebene. Liegt in der Unternehmensleitung kein grundlegendes Verständnis zur Digitalisierung und den mit Digitalisierung verbundenen Konsequenzen, Chancen und Risiken vor, ist die Gefahr groß, dass an sich gute Ansätze zerredet werden oder prinzipiell vorteilhafte Richtungen zu wenig Aufmerksamkeit und Ressourcen erhalten. Gleichgerichtetes Begriffsverständnis erleichtert die Strategiearbeit Ein gutes Digitalverständnis auf der Führungsetage beginnt mit der Begriffsfindung. Es sollte allen Strategiebeteiligten klar sein, was Digitalisierung und digitale Transformation bedeuten und welche Konsequenzen bei Nichtstun drohen. Es sollte bekannt sein, wie vielschichtig die Herausforderungen beim unternehmerischen Wandel sind und welche Hebel voraussichtlich große Auswirkungen auf das Geschäft von morgen haben werden. Die Managementmitglieder sollten verstehen, welche Vorteile durch digitale Wertschöpfungsketten entstehen, welche digitalen Vermarktungskanäle in der eigenen Branche eine Rolle spielen, warum Kundendaten zu einem ausgeprägten Kundenverständnis führen oder welche Führungs- und Steuerungsprinzipien in der nächsten Dekade der Transforma-

3.3 Digitalstrategie

71

tion essenziell sein werden. Darüber hinaus ist eine hinreichende Eindringtiefe in digitale Basis- und Schlüsseltechnologien einschließlich der Nutzenaspekte durch Technologieeinsatz bei der Strategiearbeit von enormem Wert. Ich kann es nicht oft genug betonen: Vor allem KI und Datenanalytik werden die Art und Weise wie Unternehmen ihre zukünftige wirtschaftliche Leistung erbringen und Ertragsströme generieren, fundamental verändern. Besonders dann, wenn ich als Entscheider nachvollziehe, welche Vorteile die konsequente Auswertung und Nutzung von Daten in meinem Geschäft mit sich bringt sowie welchen Einfluss KI als künftige Supertechnologie auf mein Geschäft hat und warum ein zentraler Schlüssel zur erfolgreichen Umsetzung nicht in der Technologie allein, sondern in der Unternehmenskultur liegt, bin ich in der Lage, gute Entscheidungen zur zukünftigen Ausrichtung meiner Organisation zu treffen. cc

Ein grundlegendes Digitalverständnis von digitaler Transformation oder KI-­ Transformation lässt sich i. d. R. erreichen über • das Lesen ausgewählter Fachbücher und -artikel; • die Teilnahme an ausgewählten Fachvorträgen oder Webinars; • das persönliche Kennenlernen erfolgreicher Start-ups oder digitaler Branchenführer; • die Teilnahme an extern moderierten Workshops; • den Austausch mit Transformations- und KI-Experten. Dabei ist ein ganzheitlicher Blick auf alle erfolgskritischen Transformationsdisziplinen und Technologien von Bedeutung. Je besser Berater und Trainer in ihren  sorgfältig vorbereiteten Workshops auf Verständnislücken und unterschiedliche Kompetenzniveaus der teilnehmenden Führungskräfte eingehen, desto schneller verfügen diese über ein gleichgerichtetes Digital- und KI-­ Verständnis. Die Kombination obiger Optionen wirkt sich positiv verstärkend aus.

3.3.2 Ausgeprägter Wirklichkeitssinn im Management Im künstlich intelligenten Zeitalter transformieren Unternehmen erfolgreicher, wenn ihre Manager einen unverfälschten Wirklichkeitssinn haben, was ihre eigenen digitalen Fähigkeiten anbelangt. Mit anderen Worten: Sie machen nur so viel, wie sie können und überschätzen dabei nicht ihre eigenen Kompetenzen. Wie allerdings eine Reihe von Studien zeigt, trauen sich deutsche Manager häufig mehr digitale Kompetenz zu, als sie von neu­ tralen Dritten attestiert bekommen. Selbstüberschätzung als latente Gefahr bei digitaler Transformation Die US-Psychologen Ethan Zell und Zlatan Krizan werteten 2014 bei ihrer Metaanalyse 22 Studien mit mehr als 200.000 Teilnehmern aus und kamen zu der Schlussfolgerung,

72

3  Mit 30 Prinzipien zum Digital Champion

dass die überwiegende Mehrheit weit über das Ziel hinausschoss, was die eigenen Fähigkeiten anbelangte. Das Marktforschungsunternehmen Crisp Research befragte 2015 mehr als 500 Geschäftsführer und IT-Entscheider zur Digitalisierung. Nach Einordnung der Befragten in einem Reifegradmodell sahen die Studienleiter rund 65 % noch auf Anfängerniveau, was die Digitalisierung betrifft, und attestierten nur 7 % der Verantwortlichen alle Qualitäten eines Digital Leader. Interessanterweise bezeichneten sich dagegen rund 40 % der Befragten bereits als Digital Leader. Und etwa 60 % sahen ihre digitalen Fähigkeiten als stark oder sehr stark ausgeprägt an. Der Transformationswerk Report 2016 beschäftigte sich mit der praktischen Umsetzung der digitalen Transformation in Unternehmen. Die Verantwortlichen befragten 1060 Personen. Wenig überraschend sahen die Befragten „Sicherung der Zukunftsfähigkeit“ mit 90 % am häufigsten und „Steigerung der Kundenzufriedenheit“ mit 68 % am zweithäufigsten als digitalisierungsrelevant. Überraschend jedoch war die Diskrepanz zwischen Selbst- und Fremdwahrnehmung. So überschätzten die Marketing- und die Personalabteilungen ihre wahrgenommene Digitalkompetenz etwa um das Doppelte. Und das Management überschätzte seine Digitalkompetenz sogar dreifach. In seiner im April 2019 veröffentlichen Studie befragte Forrester Consulting weltweit Führungskräfte zum Status der digitalen Transformation und auftretenden Hindernissen. auch hier überschätzten sich meisten Manager deutlich. Trotzdessen, dass lediglich 12 % der Führungskräfte tatsächlich über eine hohe digitale Reife verfügen, stufen sich 65 % selbst so ein. Selbstüberschätzung als Massenphänomen und der Sinn hinter Selbstüberschätzung Selbstüberschätzung ist nicht ungewöhnlich. Sie ist ein Massenphänomen. Die Mehrheit der Manager ist davon überzeugt, besser zu sein als der Rest. Dabei ist Selbstüberschätzung keine grundsätzliche Persönlichkeitseigenschaft von Managern – sie ist ­kontextabhängig. Manager überschätzen ihre Fähigkeiten tendenziell in Aufgabenbereichen, die gekonnt sind, und unterschätzen sie eher bei schwierigen Aufgaben. Die Digitalisierung wird von vielen Managern als lösbares Change-Phänomen verstanden, das nicht mit allzu großen Risiken in Verbindung gebracht wird. Meist können diese Manager auf eine lange und häufig erfolgreiche Historie zurückblicken und glauben deswegen, recht sicher einschätzen zu können, auf welche Faktoren es auch bei der Digitalisierung ankommt; frei nach dem Motto: „Natürlich nehmen wir  die Digitalisierung, Künstliche Intelligenz und weitere Schlüsseltechnologien ernst, bleiben wachsam und wissen, dass wir etwas in dieser Richtung unternehmen müssen. Aber unsere Branche und unser Geschäftsmodell ist derzeit noch nicht so richtig davon betroffen. Zumindest sehen wir dies momentan noch nicht. Doch wenn es dann mal so weit ist, werden wir die Transformation in diese Richtung mit allen dafür notwendigen Ressourcen angehen und diese genauso meistern, wie wir die vielen Herausforderungen erfolgreich in der Vergangenheit gemeistert haben.“ Wer so denkt, denkt mutig. Rückblickend mag eine solche Einstellung nachvollziehbar und richtig klingen. Vorausblickend ist sie riskant. Die Professoren Peter Schwardmann und Joel von der Weele fanden in ihrer 2019 veröffentlichten Studie heraus, dass diejenigen, die sich selbst

3.3 Digitalstrategie

73

überschätzen, andere leichter überzeugen können. Insondere die Erwartung andere beeindrucken zu müssen, führt zu einer steigenden Selbsteinschätzung. Die Wirtschaftswissenschaftler wiesen nach, dass ein hohes Selbstbewusstein zwar sozial nützliche Effekte mit sich bringt, aber auch dazu führt, dass sich Menschen selbst überschätzten. Mammutaufgabe Digitale Transformation Die Praxis zeigt, dass die tiefe Verankerung der digitalen Transformation innerhalb des gesamten Unternehmens eine besonders vielschichtige Mammutaufgabe darstellt. Zudem ist sie konfliktbeladener, als sich es viele Beteiligte wünschen. Transformationsverantwortliche treten an, um ihre Digitalstrategie um- und durchzusetzen. Verlangt wird von ihnen, dass sie dabei eine Vorbildrolle einnehmen und das übliche Silodenken überwinden, indem sie die Organisation transparenter machen und nebelwerfende Akteure demaskieren. Darüber hinaus sollen sie die digitalen Fähigkeiten in der Belegschaft fördern – insbesondere die der älteren und erfahrenen Kolleginnen und Kollegen. In konkreten Digitalisierungsprojekten eingebunden, befassen sich die Change-Verantwortlichen sowohl auf der Planungs- als auch auf der Erfüllungsebene mit agiler Transformationssteuerung von u.  U. mehr als zehn Transformationsdisziplinen. Gleichzeitig ist innovatives und disruptives Denken gefragt, sodass über den Einsatz neuer Technologien und Integration digitaler, skalierbarer Geschäftsmodelle ökonomische Mehrwerte entstehen. Erfolgreiche Transformatoren profitieren von ihrer Praxiserfahrung, ihrer Ausdauer und ihrem unverfälschten, neutralen Blick auf die eigenen Fähigkeiten. Aus diesem Grund werfen digitale Player regelmäßig einen selbstkritischen Blick auf die eigene Organisation und ihre Akteure. Sie hinterfragen ihr digitales Tun und reflektieren erreichte Meilensteine im fortlaufenden Transformationsprozess. Für eine realistische Selbsteinschätzung holen sie regelmäßig Feedback von Kollegen und Externen ein. Und arbeiten proaktiv an der Vermeidung von Einschätzungs- und Entscheidungsfehlern. Machen sie Fehler, gestehen sie sich diese ohne Weiteres ein, passen den Transformationskurs an und teilen ihre Fehler souverän mit ihren Kollegen, um die Organisation daraus lernen zu lassen.

3.3.3 Souveräner Umgang mit Transformationsbarrieren Keine Transformation ohne Hindernisse. Diese sind vielschichtig und menschlich, denn wir Menschen verändern uns nicht so gern. Möglicherweise, weil Veränderungen meist Anstrengungen und Energieaufwand bedeuten und nicht so richtig mit unserem evolutionären Grundprogramm „Anstrengungen vermeiden, Belohnungen maximieren“ in Einklang zu bringen sind. Vielleicht aber auch, weil Betroffene nicht so richtig einschätzen können, wie sich die Transformation auf die eigene Karriere, Verantwortungsbereiche, Ziele und Aufgaben auswirken wird. Oder, weil ein Change-Programm das andere ablöst und man als Betroffene oder Betroffener kaum Zeit hat, mal durchatmen zu können. So breiten sich von Unsicherheit und Selbstschutz geprägte Störgefühle in der Organisation aus. In der Folge können lautstarke, aber auch lautlose Widerstände entstehen.

74

3  Mit 30 Prinzipien zum Digital Champion

Tab. 3.5  Transformationsbarrieren (Quellen: Institut der deutschen Wirtschaft, YouGov, GfK, etventure, eigene Erfahrungen) Beispielhafte Transformationsbarrieren in Unternehmen Unklare Zuständigkeiten Zu viele Entscheidungsebenen Mangelndes Geschäftsverständnis der IT-­ Niedriger Reifegrad der erforderlichen Spezialisten Technologien Sinkende Produktivität in der Umstellungsphase Geschwindigkeit der technischen Entwicklung Mangelnde Motivation bei Führungskräften, Fehlendes grundlegendes Digitalverständnis Abläufe zu erfassen bzw. zu hinterfragen Angst vor der Veränderung der Zu langes Festhalten an erfolgreichen Unternehmenskultur und des Geschäftsmodells Strategien der Vergangenheit Fehlende Erfahrung bei nutzerzentriertem Sicherheitsbedenken oder blockierende Vorgehen Sicherheitsanforderungen Keine erkennbare Markterfordernis oder Angst vor neuen Technologien oder davor, Marktrelevanz Fehler eingestehen zu müssen Scheu vor notwendigen weitreichenden, Unbehagen aufgrund der hohen Komplexität radikalen und disruptiven Entscheidungen Verteidigung bestehender Strukturen Erwarteter Innovationsdruck Unklarer Nutzen durch Digitalisierung Silodenken und Silostruktur Zu unflexibles und langsames Unternehmen Abhängigkeit von der Funktionsverlässlichkeit

Die Hemmnisse beim digitalen Wandel von Unternehmen wurden ausgiebig in zahlreichen Studien untersucht. Das Institut der deutschen Wirtschaft IW führte in diesem Kontext die Ergebnisse aus insgesamt 38  Studien zusammen. Daneben untersuchten eine Reihe weiterer Organisationen potenzielle Hürden im Transformationsgeschehen. Die am häufigsten genannten Digitalisierungshemmnissen wurden in Tab. 3.5. zusammengeführt. Zwei besonders herausragende Aspekte für fehlende Wandlungsbereitschaft machen sich zum einen im mangelnden Verständnis hinsichtlich der Notwendigkeit des Wandels und der individuellen Konsequenzen bemerkbar. Dies zeigt sich beispielsweise darin, wenn die Führungsmannschaft es unterlässt, ein motivierendes Bild von einer erstrebenswerten Zukunft zu vermitteln (Appelfäller und Feldmann 2018). Zum anderen spielt auch die fehlende Wandlungsfähigkeit von betroffenen Personen eine Rolle, die sich durch den schnellen oder tiefgreifenden Wandel schlichtweg überfordert fühlen. Transformationshemmnisse, wie die in Tab. 3.5. aufgelisteten, erschweren eine erfolgreiche Transformation und Umsetzung von Veränderungen. So verringern die Veränderungsgeschwindigkeit jedes transformationswilligen Unternehmens. Nervenaufreibende Grabenkämpfe zwischen veränderungsbereiten und resistierenden Lagern kosten die Beteiligten Kraft und wirken sich nachteilig auf die Wettbewerbsfähigkeit aus. Lassen sich solche Hemmnisse überwinden? Durchaus. Nach Gewahrwerden von Hemmnissen ist eine offene, vertrauensbildende Kommunikation ein gutes Mittel für Führungskräfte, um die Notwendigkeit der Veränderungen sowie Konsequenzen bei Nichtstun

3.3 Digitalstrategie

75

aufzuzeigen. Auch personenbezogene Hemmnisse lassen sich durch aufklärende Gespräche überwinden. Das Management beweist Führungsstärke, indem es auf der einen Seite die Sorgen und Ängste der betroffenen Kollegen und Mitarbeiter ernst nimmt und auf der anderen Seite unmissverständlich die Gründe für die notwendigen Veränderungsschritte und Chancen durch die geplante Veränderung aufzeigt. Bei größeren Hemmnissen sind gemeinsame Arbeitstreffen oder Workshops mit allen Beteiligten vorzuziehen, um mögliche Risiken und  Lösungen zu diskutieren und die Transformationshemmnisse in ihrer Struktur und Ausgeprägtheit abzuschwächen oder, wenn möglich, ganz aus dem Weg zu räumen. Auch wenn sich die Top-Managementebene aktiv und sichtbar für den technologiebedingten Wandel einsetzt und diesen vorlebt, verlieren Widerstände in der Organisation an Bodenhaftung.

3.3.4 Zwischen Leitbild und digitalem Zielbild Leitbilder gehören zum Standardinstrument moderner Kommunikation und Personalführung. Sie geben der Unternehmensführung Identifikation, sinngebende Handlungsorientierung und Entscheidungsgrundlagen. Darüber hinaus beschreiben sie die Grundprinzipien und das erfahrbare Wertegerüst des Unternehmens. Das eigene Leitbild regelmäßig auf den Prüfstand zu stellen, geht einher mit großen, anspruchsvollen Fragestellungen: • Unternehmensvision: Was ist unsere Vision für unser Unternehmen – wo steht dieses in fünf bis zehn Jahren? Was sind die großen Themen, die künftig für unseren Unternehmenserfolg relevant sein werden? • Unternehmensmission: Warum tun wir das, was wir tun und für wen tun wir es künftig? Was machte unser Unternehmen in der Vergangenheit aus? Wie müssen wir unser Selbstverständnis in den kommenden Jahren anpassen? • Unternehmenskultur: Welche Normen und Regeln, Handlungsroutinen und Überzeugungen sowie Werte brauchen wir künftig? Welche bestehenden wollen wir ersetzen? • Unternehmenswerte: Von welchem Werteraum wollen wir uns zukünftig leiten lassen? Welche Leuchturmwerte sollten unser Handeln im digitalen und zukünftig immer stärker von KI geprägten Zeitalter besonders prägen? Welche neuen wertvollen Ideale sind für unser Unternehmen erstrebenswert? Wie schaffen wir es, unsere Werte in den Köpfen der Empfänger noch besser zu verankern und intern besser vorzuleben? Ist das bisherige Unternehmensleitbild im Zuge des digitalen Fortschritts noch gültig? Was gilt es zu bewahren, was sollte angepasst werden? Wie geht das Leitbild auf kontinuierliche Veränderungsprozesse ein: Schreibt es den Status quo fest oder skizziert es eine motivierende Zukunftsperspektive?

76

3  Mit 30 Prinzipien zum Digital Champion

Diese Fragen regen dazu an, auszuloten, welche Kernelemente des Leitbilds warum bewahrt oder gestrichen und welche Kernelemente mit Blick auf die kommenden Jahre erneuert werden sollen. Vor dem Hintergrund, dass Unternehmenslenker davon ausgehen dürfen, dass sich das kommende Jahrzehnt stärker verändern wird als das bisherige, wird es für sie anspruchsvoller denn je, ihr Leitbild so weiterzuentwickeln, dass Führungskräfte und Mitarbeiter bestmögliche Orientierung, Identifikation und Zuversicht erhalten - und darüber hinaus Geschäftspartnern und der Öffentlichkeit ein positives Bild vermittelt wird. Partizipativer Top-down-Ansatz mit Digital Natives Leitbilder entstehen meist top-down. Das Managementteam definiert und bestimmt die Einführung. Ist die Entscheidung für ein neues Leitbild gefallen, erreicht es eine breitere Akzeptanz, wenn sich möglichst viele Beteiligte damit identifizieren können. Denn Legitimation erfahren Leitbilder durch Partizipation (Stach 2009). Aus diesem Grund sollten nicht nur der oberste Führungskreis, sondern darüber hinaus ausgewählte Mitarbeiter aus verschiedenen Abteilungen und Altersgruppen im Überarbeitungsprozess mitwirken. Die Betonung liegt hierbei auf wenige und gezielt ausgewählte Mitarbeiter, damit das zukünftige Leitbild nicht zu allgemein gehalten wird. Auch Digital-Natives-Pflichtmitglieder können wertvolle Impulsgeber im Rahmen des Ausarbeitungskreises sein. Zwar wird der Prozess u. U. damit aufwendiger und konfliktreicher, dafür steigt die Wahrscheinlichkeit, dass das neue Leitbild auch in der Breite auf Anklang stößt und seine gewünschte Wirkung entfaltet. Digitales Zielbild mit Bezug zum digitalen Arbeitsalltag In Abgrenzung zum Leitbild hat ein Zielbild konkreten Geschäfts- und Zukunftsbezug. Es zeigt die großen Themen und Richtungsvorgaben auf, in die sich das eigene Unternehmen in den nächsten Jahren entwickeln muss, um weiterhin zukunftsfähig zu bleiben. Zum Zielbild gehören nachprüfbare Aussagen zur zukünftigen Leistungsfähigkeit des Unternehmens, zum (neuen) Selbstverständnis und Marktanspruch sowie zu den strategischen Handlungsfeldern (Stach 2009). In der heutigen unbeständigen Zeit kann ein Zielbild immer nur temporären Charakter aufweisen. Es ist als Momentaufnahme zu verstehen mit voraussichtlich kurzer Halbwertszeit. Abhängig davon, wie schnell und wie stark sich das Markt- und Technologieumfeld fundamental verändert. Ob ein Unternehmen neben dem Leitbild auch ein Zielbild besitzt oder beide Welten miteinander in einem zukunftsgerichteten Leitbild vereint, hängt davon ab, ob das Top-­ Management sicherstellen kann, dass auf der einen Seite die Ideale des Unternehmens nachvollziehbar Durchschlagskraft erfahren und auf der anderen Seite ein nach vorn gerichteter Orientierungsansatz besteht, der einen aktiven Beitrag zum zukünftigen Unternehmenserfolg stiftet, ohne das Leitbild damit zu überfordern. Entscheidet sich das Management für ein kumuliertes Gesamtbild, sollten die Einzelkomponenten wohldosiert ausformuliert sein, um eine kognitive Überfrachtung zu vermeiden.

3.3 Digitalstrategie

77

3.3.5 E  ntwicklung der Digitalstrategie und strategische Steuerung über OKRs Das Herzstück jeder digitalen Transformationsreise ist die Digitalstrategie. Diese bündelt die zentralen digitalen Aktivitäten und stellt sicher, dass alle Unternehmensbereiche und Mitarbeiter auf ein gemeinsames Zielbild hinarbeiten. Nachdem alle Potenzialfelder und Veränderungsbedarfe identifiziert und diskutiert wurden, gibt die Digitalstrategie die unternehmensrelevante relevante Handlungsfelder vor, um das Unternehmen an die veränderten Kundenbedürfnisse, Wettbewerbsverhältnisse, Geschäftsmodelle und Technologieentwicklungen anzupassen. Damit legt sie den Grundstein für Verhaltensweisen und Maßnahmen zur Verwirklichung der Unternehmensziele in digitalen Märkten.  Der Wandel zum digitalen Unternehmen beginnt mit der Digitalstrategie Der Wandel zu einem digital transformierenden Unternehmen geht in den allermeisten Fällen mit einer Digitalstrategie einher. Als Bestandteil der Unternehmensstrategie schafft die Digitalstrategie die Grundlage für neue digitale Rollen, Strukturen und Geschäftsmodelle. Damit geht sie über die reine Digitalisierung des Unternehmens weit hinaus. Sie bildet das übergreifende Fundament für alle digitalen Veränderungsprozesse innerhalb des Unternehmens ab. Dabei setzt sie nicht nur das Unternehmen selbst, sondern auch Kunden und Geschäftspartner in den Fokus des Handelns. Hat die oberste Führungsetage Klarheit und Konsens bezüglich der großen zukunftsrelevanten Fokusthemen der kommenden Jahre geschaffen, lassen sich die wesentlichen strategischen Stoßrichtungen in einem oder mehreren Strategieworkshops herleiten, diskutieren und ausformulieren. Dabei machen v. a. diejenigen Manager den Unterschied, die den Mut und die Überzeugungskraft haben, ein Selbstverständnis und eine Vision zu kreieren, die dem Unternehmen den zu ihm passenden Weg in die digitale Zukunft ebnet (Petz 2018). Digitalstrategie als Treiber für zukünftigen Unternehmenserfolg Haben Unternehmen noch keine Digitalstrategie entwickelt, sind ihre digitalen Reifegrade erfahrungsgemäß noch gring ausgeprägt. Selbst wenn bereits erste digitale Initiativen umgesetzt wurden, fehlt es häufig an einem Zielbild und der Kenntnis, welche Fokusthemen die größten Geschäftschancen bringen oder Markt-/Technologierisiken abmildern. Ohne richtungsweisende Digitalstrategie findet der digitale Kompetenzaufbau noch implizit und konzentriert bei einzelnen Experten statt. Produkt- und Dienstleistungsangebote und Betriebsabläufe weisen häufig noch geringe Digitalisierungsgrade auf. Übergreifende cross-funktionale oder cross-divisionale Zusammenarbeit ist die Ausnahme und eine Kultur des schnellen, agilen Wandels und Ausprobierens möglicherweise noch in weiter Ferne. Sind Unternehmen dagegen digital fortgeschritten, haben sie meist eine Digitalstrategie verabschiedet, dokumentiert und kommuniziert. Es gibt ein klares Commitment auf Ma-

78

3  Mit 30 Prinzipien zum Digital Champion

nagementebene und Digitalsponsoren im Führungssystem. Digitalprojekte werden bereits durch Führungskräfte oder agile Teams verantwortet, die zusammen mit den hierarchisch aufgestellten Fachbereichen neue Wege der Zusammenarbeit und Projektarbeit ausloten. In solchen Unternehmen hat der kulturelle Wandel durch neue Führungsprinzipien, physische und ergänzend dazu virtuelle Arbeitskreise sowie digitale Arbeitswerkzeuge an Legitimation und Dynamik gewonnen (Schäfer et al. 2015). Die Veränderungen zeigen sich in digitalen Kernprozessen, Produkten oder Dienstleistungen. Wirtschaftliche Effekte lassen sich nachweisen – die digitale Transformation hat positive ökonomische Effekte erzeugt. Strategiesteuerung mit Objektives and Key Results (OKRs) Auch wenn Unternehmen heutzutage über den Zugang zu gleichen Daten, zu gleichen Experten und gegebenenfalls auch zu gleichen Algorithmen wie ihre Wettbewerber verfügen, sind sie dennoch nicht in der Lage, eine nachhaltige Zukunft für das Geschäft vorauszusagen. Die dynamischen, unkontrollierbaren Umwälzungen im Markt verringern die Halbwertzeit von Strategien. Konventionelle Zielvereinbarungen verlieren im Zeitalter agiler Führung an Bedeutung. Denn was im aktuellen Geschäftsjahr noch richtig klang, mag bereits im Folgenden überholt wirken. Vor diesem Hintergrund können auch unterjährige Zielanpassungen sinnvoll bzw. notwendig sein. Eine alternative Herangehensweise zu klassischen Steuerungsinstrumenten bietet eine Methode aus dem Silicon Valley. Bereits seit 1999 setzt Google auf Objektives and Key Results. Dabei handelt es sich um eine Managementmethode von Intel-Mitgründer Andy Grove und Google-Investor John Doerr, die seit vielen Jahren Silicon-Valley-Unternehmen wie Oracle, Twitter oder LinkedIn einsetzen. Fällt der Blick auf Deutschland, steuern immer mehr Unternehmen ihre Strategie und Ziele mit OKRs – so u. a. BMW, Daimler, FlixMobility, Axel Springer, Burda, Otto, MAN, Siemens, Telefonica, Jochen Schweizer, Zalando, Trivago, N26 oder MyMüsli. Das Rahmenwerk der OKRs hilft Unternehmen dabei, ihre Ziele unternehmensweit zu definieren, auf Unternehmens-, Team- oder Mitarbeiterebene abzustimmen, die Fortschritte im Auge zu behalten und Ziele erreichbarer zu machen. Dabei ist die Grundidee von OKRs recht simpel: Jedem Ziel („Objektive“) werden messbare Schlüsselergebnisse („Key Results“) zugeordnet. Objectives beantworten die Frage, wo das Unternehmen hin möchte und Key Results die Frage, was das Unternehmen tun muss, um die formulierten Ziele messbar zu erreichen. Auf diese Weise messen Unternehmen kontinuierlich – meist quartalsweise – Erfolge auf Team- oder Mitarbeiterebene und definieren neue OKR (Kemp 2017). OKR ermöglichen es, Teams und Individuen zu fokussieren. Sie verändern, wie Unternehmen Erfolg definieren und intern kommunizieren. Werden sie sparsam gesetzt, funktionieren sie besonders gut (Longden 2018). Als Obergrenze formulierte Rick Klau, Partner bei Google Ventures, fünf Ziele je Mitarbeiter mit maximal vier Schlüsselergebnissen – um fokussiert genug zu bleiben. Mit Blick auf meine langjährige OKR-Erfahrung gehe ich noch einen Schritt weiter und empfehle, diese zu Beginn sogar noch sparsamer einzusetzen - mit ein bis zwei inspirierend und ambitioniert formulierten Zielen zu starten und je Ziel drei konkrete, messbare Schoüsselergebnisse zu definieren.

3.3 Digitalstrategie

79

Die Umsetzung der OKRs erfolgt i. d. R. in agilen Sprints und wird durch einen digitalen Lenkungsausschluss mit Managementbeteiligung gesteuert. So findet neben der Einführung von agilen Arbeitsstrukturen und sich selbst organisierenden Teams auch ein Umdenken bei der strategischen Planung und Zielvereinbarungen  statt. Das Ergebnis sind agile Planungen und Zielsetzungen – statt wie bisher nach der klassischen Wasserfallmethode festgesetzte Ziele einfach nach unten weiterzugegeben. OKRs stehen für eine Reihe von Vorteilen. Sie ermöglichen eine stärkere Identifizierung der Mitarbeiter mit den gesetzten Zielen, da sie diese selbst mitgestaltet haben (Backovic 2018). Zudem sind sie sinnstiftend. Die Mitarbeiter wissen nicht nur was sie tun, sondern auch warum. Neben der Förderung intrinsischer Motivation lassen sich Abstimmungsprozesse und Meetings beschleunigen und die richtige Verwendung knapper Ressourcen besser erreichen. Unternehmen lernen auf diese Weise, sich besser zu fokussieren. Sie werden adaptiver und steigern ihre Reaktionsgeschwindigkeit auf Änderungen im Markt (Kaczmarek 2016). Der Weg, bis intelligente Maschinen Strategien entwickeln können, ist (nicht mehr so) lang Immer mehr Entscheidungen werden in den kommenden Jahren von Maschinen und KI getroffen. Bei der strategischen Ausrichtung des Geschäfts wird es allerdings vermutlich noch Jahre dauern, bis intelligente Softwares Managemententscheidungen besser treffen können als Führungskräfte. Denn strategische Entscheidungen sind neben der Faktenlage geprägt von Gespür und Erfahrungswissen. Darüber hinaus sind sie meist sehr komplex. So fragen sich Manager z. B., ob sie sich von bisherigen Kernkompetenzen verabschieden sollten, wann der richtige Zeitpunkt gekommen ist, das bisherige Geschäftsmodell zu ergänzen, welche Technologien zu welchem Zweck eingeführt oder wie sich durch Automatisierung freigewordene Personalkapazitäten am besten umwidmen lassen. Auf solche Fragen geben Computer aus heutiger Sicht noch keine befriedigenden Antworten. Dessen ungeachtet bin ich davon überzeugt, das viele Top-Manager in den kommenden Jahren die Vorteile durch KI schätzen lernen und damit beginnen werden, KI als Werkzeug zur Absicherung ihrer eigenen Managemententscheidungen zu nutzen. Ganz ähnlich wie es heute bereits fortschrittliche Ärzte, Juristen und Marketing-Manager tun.

Beispielhafte strategische Fragen • Auf welchen unternehmenseigenen Stärken kann das Unternehmen digital aufbauen? Welche Risiken können uns schaden? • Wie müssen wir unser bestehendes Geschäftsmodell verändern, um weiterhin wettbewerbsfähig zu bleiben? • Was steht im Fokus: die Erneuerung unseres Geschäftsmodells oder die Verbesserung unserer Prozesseffizienz durch Virtualisierung und Automatisierung? • Wie lassen sich unsere Mitarbeiter noch besser aus der Komfortzone holen, um neue Dynamik ins Unternehmen zu bringen? • Haben wir noch die richtigen Mitarbeiter? Und wo finden wie die passenden, um uns zukunftsfähig aufzustellen?

80

3  Mit 30 Prinzipien zum Digital Champion



New Business > Better Business

„Auf Digitale Überlegenheit und perspektivische Wertzuwächsesetzende Unternehmenslenker priorisieren New Business mit Investitionen in die Entwicklung neuer Lösungskompetenzen, Technologien und Geschäftsmodelle höher, als kurz- und mittelfristige Effizienzsteigerungen mit Better Business über ein durch Digitaltechnologien verbessertes, operatives Kerngeschäft.“

3.4 Digitale Transformationsplanung

3.4

81

Digitale Transformationsplanung

Nach der Formulierung, Verabschiedung und internen Kommunikation der neuen Digitalstrategie folgt die Planung der operativen Umsetzung von Projekten und Maßnahmen.

3.4.1 Digitale Roadmap, Projekttypen, Steckbriefe und Finanzierung Im Einklang mit strategischen Zielen und operativen Aufgaben steht die digitale Roadmap für einen Handlungsplan, um die digitale Transformation strukturiert voranzutreiben. Sie zeigt die strategischen Initiativen über eine Zeitachse von ein bis zwei Jahren auf einen Blick. Projekttypen Innerhalb der Roadmap finden  sich vier verschiedene Typen von Transformationsprojekten: • • • •

1. Quick Wins: Maßnahmen zur kurzfristigen Realisierung von Geschäftsnutzen 2. Deep Dives: Explorative Tiefbohrungen für große Potenzialfelder 3. Sprints: Agile und kompakte „Schnellboote“ 4. Tanker: Komplexe, kapitalintensive, längerfristige Vorhaben mit Leuchttumcharakter

Quick Wins stehen für Maßnahmen, die sich innerhalb von 30 Tagen abschließen lassen und mit verhältnismäßig geringen Aufwänden zu einer Verbesserung führen. Gemeint ist damit z. B. die Vorbereitung und Durchführung eines Workshops „Customer Personas und Customer Journeys“ für das Digitalmarketing, um die Marketingaktivitäten an Kundenreisen auszurichten. Deep Dives sind Potenzialanalysen für komplexe oder schwer durchsichtige Themen mit voraussichtlich großer Hebelwirkung für das Unternehmen. Als Beispiel lässt sich hier der zukünftige Umgang mit Geschäfts- und Kundendaten nennen, um Nutzen aus strukturierter Datenerfassung, -auswertung und -verwertung zu ziehen. Die Umsetzungszeit beträgt erfahrungsgemäß mehrere Monate, um das entsprechende Thema hinreichend breit und tief zu durchleuchten und richtige Schlussfolgerungen und Empfehlungen abzuleiten. Sprints sind agile, fokussierte Kompaktprojekte, die interdisziplinäre Teams umsetzen. Leichtgewichtig und schnell durchlaufen die Beteiligten die Sprints in Iterationen und passen den Prozess fortlaufend an. Dabei findet eine enge Abstimmung mit den Geschäftsbereichen statt, die den Sprint finanzieren. Während des Sprints managt sich das Projektteam selbst. Die Umsetzungszeit von Sprints liegt üblicherweise bei wenigen Wochen bis drei Monaten. Ein Beispiel stellt die Entwicklung und Betriebsplanung einer App für den Außendienst dar.

82

3  Mit 30 Prinzipien zum Digital Champion

Tanker sind Großprojekte, die auf der einen Seite komplex und auf der anderen Seite innerhalb des Unternehmens viele Schnittstellen aufweisen und daher abstimmungsintensiv sind. Als Beispiel lässt sich die Einführung eines neuen ERP- oder CRM-Systems benennen. Großprojekte sind für jedes Unternehmen ein Kraftakt, der eine gewissenhafte Vorereitung erforderlich macht. Die Umsetzung von Tankern dauert üblicherweise sechs Monate bis zu zwei Jahre. Steckbriefe für Transformationsvorhaben Neben der Verabschiedung eines Umsetzungsfahrplans für die digitale Transformation unterstützen Projektsteckbriefe Unternehmen darin, die unterschiedlichen Projektvorhaben strukturiert zu planen und an einheitlichen Projektparametern auszurichten Wenige Merkmale machen Steckbriefe aussagekräftig. Erfahrungsgemäß ist ein einseitiges Format von Vorteil, das die Akteure dazu veranlasst, sich kurz zu fassen. Zusätzliche grafische Stilmittel können das Erscheinungsbild ansprechend auflockern. Die folgende Liste zeigt beispielhaft gewählte Gestaltungselemente bei Projektsteckbriefen: 1. Projekt-ID 2. Projekttyp 3. Ausgangslage 4. Projektziel 5. Nutzen 6. Umsetzungsdauer 7. Wichtige Meilensteine 8. Beteiligte Unternehmensbereiche 9. Sponsor(en) 10. Aufwände bzw. Kosten

Finanzierung von Transformationsprojekten Nachdem die digitale Roadmap entwickelt und freigegeben wurde, stellt sich die Frage nach deren Finanzierung. Diesbezüglich müssen die Aufwände plausibel hergeleitet und die perspektivisch in Aussicht gestellten Nutzen und Potenziale groß genug sein, damit es zu einer Finanzierung durch die operativen Geschäftseinheiten kommt. Wenn nicht alle in der Roadmap verabschiedeten Projektvorhaben eine Finanzierung erhalten, findet in der Regel  eine Priorisierung der Projektinitiativen in Abhängigkeit von ihrer strategischen Bedeutsamkeit statt. Sind größere Kostenpositionen zu stemmen, kann das Top-­Ma­ nagement einen Sockelbeitrag für den Umbau des Unternehmens zur Verfügung stellen, sodass die verbleibenden Kosten für diejenigen operativen Geschäftseinheiten, die die größten Nutznießer der geplanten Veränderung sind, einfacher zu bewerkstelligen sind. Beispielhafte Fragestellungen zur Finanzierung von strategischen Vorhaben • Erklärt sich das Top-Management bereit, entsprechende Initiativen initial zu fördern und stellt hierfür einen Teil der benötigten Finanzmittel bereit?

3.4  Digitale Transformationsplanung

83

• Welche Bereiche profitieren von der Veränderung? Erfolgt die Finanzierung durch diejenige Sparte, die zukünftig am meisten von der Umsetzung profitiert oder teilen sich mehrere Sparten die Finanzierung gemeinschaftlich auf? • Welche Annahmen stehen hinter der Aufwands- und Kostenschätzung? • Wann fallen zeitlich gesehen welche Aufwände und Kosten an? • Was genau wird finanziert (Technologie, Marketing, externe Begleitung)?

3.4.2 Digitale Lotsen als Wegbereiter und Botschafter Um den organisatorischen und technologischen Herausforderungen der digitalen Transformation in den 2020er Jahren mit möglichst hoher Wirksamkeit zu begegnen, Transformationsexperten digitale Lotsen ein. In der Rolle als Impulsgeber und Botschafter bauen die Lotsen Ängste und Vorurteile ab  und werben für Chancen durch Veränderung. Sie machen sich stark für eine verbesserte interne Kommunikation und nehmen eine aktive Vorbildfunktion ein beim  flächendeckenden Einsatz von modernen Kommunikationsin­ strumenten und Tools.  Lotsen können darüber hinaus auch die Rolle des Wegbereiters einnehmen. Darin zeichnen sie zukunftsgerichtete Lösungspfade vor und zeigen Zusammenhänge zwischen IT, Prozesslandschaft und Geschäftsmodellen auf. Als Sparringspartner unterstützen sie die Unternehmensleitung und ausgewählte Funktionsbereiche bei der Ausnutzung von technologischen Potenzialen. Ausgleichende Meditatoren Digitale Lotsen sind keine Projektmanager im klassischen Sinn. Sie agieren vielmehr in der Rolle eines ausgleichenden Kommunikators. Denn keine Transformation läuft ohne Reibungsverluste ab. Auch wenn die meisten Veränderungen innerhalb des vorgegebenen Rahmens wie geplant verlaufen, kommt es häufig an den Rändern und außerhalb von Projektteams zu Gegenbewegungen und Unverständnis. Mögliche Gründe dahinter sind abweichende Partikularinteressen oder mangelnde Change-Akzeptanz. Gerade an diesen Stellen können digitale Lotsen wertvolle ausgeleichende Arbeit leisten. Aufklärende Wegbereiter Wenn Führungskräfte der mittleren Ebenen und Mitarbeiter nicht genau verstehen, warum die digitale Transformation alternativlos ist, einer kollektiven Zusammenarbeit bedarf und neben Risiken auch jede Menge Chancen birgt, entstehen menschlich nachvollziehbare Zukunftsängste und Sorgen, wohlmöglich perspektivisch an Einfluss zu verlieren oder gar durch Maschinenintelligenz ersetzt zu werden. In solchen Fällen helfen aufklärende, qualifizierte Gespräche auf Augenhöhe durch erfahrene Lotsen. Die Lotsen werben für die vielen Geschäftschancen, die durch Transformation entstehen können und zeigen Potenziale auf, die in der Ausnutzung der zwölf Transformationsdisziplinen liegen, um die Organisation zukunftsgerichtet weiterzuentwickeln. Sie sorgen dafür, dass der Umbau der Organisation geordnet, gleichgerichtet, schneller und damit effizienter erfolgen kann.

84

3  Mit 30 Prinzipien zum Digital Champion



Digitale Lotsen

„Digitale Lotsen sind Wegbereiter,Möglichmacher, Botschafter und Beschleuniger in Personalunion. Sie machen Transformationserfordernisse verstehbar, öffnen Türen, sprechen Mut zur Veränderung zu und geben ganzheitliche Orientierung. Überzeugend und inspirierend bauen sieVeränderungsblockaden in den Köpfen ab, schaffen Akzeptanz und Struktur, damit die Transformation im VUCA-Umfeld die notwendigen Impulsüberträge erfährt.“

3.4  Digitale Transformationsplanung

85

3.4.3 Digitale Steuerungszentrale und Governance Eine erfolgreiche digitale Transformation braucht eine wirksame Gestaltung durch ein Digitalisierungskernteam oder Transformation Office, das alle geplanten Veränderungen orches­ triert und qualitätssichert. Aus diesem Grund installieren einige transformierende Unternehmen eine digitale Steuerungszentrale und zu einem späteren Transformationszeitpunkt eine digitale Geschäftseinheit. Hier werden Rollen, Verantwortlichkeiten und Entscheidungskompetenzen für die fortlaufende Steuerung der Digitalinitiativen festgelegt und in der Organisationsstruktur verankert. Der transformationsverantwortliche Leiter der Steuerungszentrale sorgt zusammen mit seinem Digitalisierungskernteam dafür, dass die laufenden Transformationsprozesse und -aktivitäten konsequent und messbar an der Digitalstrategie ausgerichtet und so effizient wie möglich umgesetzt werden. Dabei unterstützt die sog. digitale Governance. Eine solche Steuerungszentrale ist nicht notwendigerweise gleich zu Beginn eines Transformationsprogramms zu installieren. Aber sie hilft Unternehmen, während der Umsetzung der Digitalstrategie, zusätzliche Fahrt aufzunehmen und die Maßnahmen geordneter und gleichgerichteter auszuführen. Digitale Governance als Ordnungsrahmen Zu einer Transformation des Gelingens gehört neben einer Kontroll- und Steuerungsstruktur ein Ordnungsrahmen mit Regeln zur Umsetzung – die digitale Governance. Sie übernimmt in erster Linie die Aufgabe, den Fortschritt aller Digitalisierungsbemühungen zu steuern und regelmäßig zu bewerten (Hölscher 2017). Neben der Herausforderung, möglichst passende Rahmenbedingungen für Veränderungen zu bestimmen, sind auch Grundlagen zu schaffen, um die digitalen Veränderungsprozesse kontinuierlich zu überwachen. Im Kontext einer digitalen Governance lassen sich verschiedene Dimensionen beschreiben, um eine verhältnismäßig schnelle Entscheidungsfindung und Ressourcenallokation auf funktionsübergreifender Ebene herbeizuführen (Haertlein 2016): 1. Klarheit: Die digitale Governance stellt klare Verantwortlichkeiten, Entscheidungsbefugnisse, Rollen und Aufgaben sicher und hilft, eine gemeinsame digitale Sprache im Unternehmen zu etablieren  – eine unternehmensweit einheitliche Nomenklatur hilft dabei, Missverständnisse zu vermeiden. 2. Einstimmigkeit: Die digitale Governance gewährleistet, dass die digitalen Maßnahmen stets mit der Geschäftsstrategie konform laufen und balanciert, wenn notwendig, polarisierende Ansprüche unterschiedlicher Stakeholder aus. 3. Standardisierung: Die digitale Governance legt fest und dokumentiert, was sich im Zuge der Transformation wie im Unternehmen standardisieren lässt. 4. Qualifizierung: Die digitale Governance sorgt für eine fachübergreifende Weiterbildung von Mitarbeitern mit Fokus auf eine inhaltliche Sensibilisierung in den jeweils anderen Bereichen (Teiselmann 2018). So bauen zum Beispiel IT-Mitarbeiter fachliches Wissen zu entsprechenden Produkten und Dienstleistungen auf, um die praktischen Bedürfnisse und Herausforderungen im operativen Geschäft besser zu verstehen und einzuordnen. Gleichzeitig erwerben Mitarbeiter aus den Fachbereichen und Stabsfunktionen digitales Grundlagenwissen und ein verbessertes Verständnis von IT und

86

3  Mit 30 Prinzipien zum Digital Champion

Anforderungsspezifikation, um die Zusammenarbeit mit den IT-Kollegen zu verbessern: So entsteht ein fachübergreifendes Voneinanderlernen.

3.4.4 Kennzahlensystem zur erfolgreichen Transformationssteuerung Zum Transformationserfolg gehören Kennzahlen und Maßnahmen, die sowohl den Kundennutzen und die von Kunden wahrgenommene Qualität erhöhen (Schulze und Nasca 2018) als auch Transformationsfortschritte quantifizieren und dokumentieren können. Lässt sich die Transformation messbar gestalten, ist das Unternehmen in der Lage, die monetäre Werthaltigkeit von Transformationsprojekten auszuweisen. Aus diesem Grund benötigen Unternehmen ein Kennzahlensystem, das alle ausgewählte Key Performance Indicators (KPI) möglichst übersichtlich auf einen Blick anzeigt und gleichzeitig Kennzahlenvergleiche ermöglicht. Da aufgrund der spezifischen Unterschiede jedes Unternehmen andere KPI verwendet, ist der Bezugsraum für die fortlaufende Messung aus hunderten potenziell einsetzbaren KPI unternehmensindividuell auszurichten, sodass eine aussagekräftige Bewertung der Transformationsarbeit erfolgen kann. Fokussierung auf die wesentlichen Kennzahlen Je nach Transformationsdisziplin und Zielsetzung sind andere spezifische Kennzahlen heranzuziehen. Dabei gilt: Qualität vor Quantität: Das Transformationsteam sollte sich zu Beginn auf wenige und wesentliche Messparameter (idealerweise aus OKRs abzuleitende) beschränken – beispielsweise auf 10–15 KPI – und dabei keine KPI-Hierarchie anpeilen. Schließlich liegt der Wert der ausgewählten Kennzahlen in ihrer Fähigkeit, die unternehmerische Entscheidungsfindung zu beeinflussen. In Anlehnung an Gartner, sind die besten Metriken diejenigen, die einen klar definierten und vertretbaren kausalen Zusammenhang zu einem Geschäftsergebnis haben, einen bestimmten Adressatenkreis ansprechen, von einem nicht IT-affinen Adressatenkreis verstanden werden können und konkrete Handlungen herbeiführen.

Beispielhafte Kennzahlen zur Messung von Transformationsinitiativen

• Kundenzufriedenheit (Zufriedenheit mit neuen Digitalangeboten bzw. bisherige Zufriedenheit) • Return of Innovation Investment (Umsatz neue Digitalangebote) • Kundenloyalität via Net Promoter Score (Promotoren in % – Detraktoren in %) • Kundeninteraktionsrate (Anteil Kundeninteraktion an den digitalen Kundenkontaktpunkten zu Gesamtinteraktion) • First Customer Resolution Rate (gelöste Anfragen beim ersten Kundenkontakt) • Kundendienstvirtualisierungsrate (Self-Service-Inanspruchnahme zu Gesamtinanspruchnahme) • Prozesskosteneffizienz (Kosten digitaler Prozesse bzw. bisherige Prozesskosten) • Durchlaufzeiteffizienz (Durchlaufzeit digitale Prozesse bzw. bisherige Durchlaufzeit) • Employee Satisfaction Index (Zufriedenheit Arbeitsplatz, Erwartungen, Idealvorstellung) • Finanzieller Erfolg (Digital EBTDA) mit neuen digitalen Produkten und Services

3.5  Digitale Transformationsumsetzung

• • • •

3.5

87

Bedeutung neuer Technologien (Technologiennutzen bzw. -kosten) Entwicklung digitale Reichweite (Besucher an allen digitalen Kundenkontaktpunkten) Entwicklung soziale Reputation (Social Ratings, kumulierte Likes bzw. Followers) Digitale Kompetenzträger im Unternehmen (Digitale FTE)

Digitale Transformationsumsetzung

Nachdem ein digitales Zielbild, eine Digitalstrategie, eine Roadmap und Governance entwickelt, entsprechende Ziele, Schlüsselergebnisse und Kennzahlen zur Messung bestimmt, Sponsoren für Transformationsthemen und digitale Lotsen benannt und ein digitales Kernteam sowie ein digitaler Lenkungskreis ins Leben gerufen wurden, kann die operative Umsetzung der digitalen Transformation beginnen. Gleichwohl  müssen nicht alle obigen Voraussetzungen erfüllt sein, um zu starten. Für die nächste Generation der digitalen Transformation stehen Unternehmen – ganz gleich, ob sie noch am Anfang der Transformationsreise stehen oder digital bereits fortgeschritten sind – zwölf Disziplinen einschließlich der digitalen Strategie zur Verfügung, innerhalb derer die unternehmensindividuelle Umsetzung der Transformation erfolgt. Im Kap. 4 werden die zwölf Disziplinen in Form eines digitalen Transformationshauses zusammengefasst: Dabei steht jede Disziplin für einen speziellen Raum. Ergänzt werden die Räume im Transformationshaus um ein digitales Fundament sowie ein Dach, um digitale Überlegenheit im Wettbewerb zu entwickeln. Auf Basis der  nachfolgend ausführlich beschriebenen Disziplinen können Transformationsverantwortliche ihre Organisation strategiekonform und zielgerichtet weiterentwickeln und wirksam auf das Zeitalter der Künstlichen Intelligenz vorbereiten.

3.5.1 Digitale Geschäftsmodelle Unser Zeitalter ist durch umwälzende neue Geschäftsmodelle geprägt. Obwohl sie unsere Wirtschaftswelt über alle Branchengrenzen hinweg verändern, fällt es uns schwer zu verstehen, woher diese Kraft kommt (Osterwalder und Pigneur 2010). Digitale Transformation geht nahezu immer einher mit Transformation des eigenen Geschäftsmodells. Aus diesem Grund ist das Geschäftsmodell mit seiner ganz einzigartigen Mechanik immer wieder auf den Prüfstand zu stellen und vorbehaltlos zu hinterfragen. Bis heute findet sich in der Managementliteratur beim Geschäftsmodell noch kein einheitliches Verständnis zu dessen Bausteinen. Der Geschäftstheoretiker und Business-­Model-­ Canvas-Entwickler Alexander Osterwalder sieht in einem Geschäftsmodell das Grundprinzip, nach dem eine Organisation Werte schafft, vermittelt und erfasst. Dieses Grundprinzip lässt sich beschreiben durch verschiedenen Schlüsselfaktoren, die ein Geschäftsmodell in ihrer Gesamtheit kennzeichnen. Je nach Quelle lassen sich in der Literatur zwischen drei bis neun Schlüsselfaktoren eines Geschäftsmodellkonstrukts ausmachen. Wie deutlich sich die Schlüsselfaktoren unterscheiden, zeigen die Geschäftsmodellauslegungen in der Tab. 3.6.

Wertschöpfungskette

Leistungskonzept

Umsatzströme Wettbewerber

Wertschöpfung

Leistungskonzept

Johnson, Christensen, Kagermann Klüber Kunden und Geschäftspartner

Internetbasierte Wertversprechen Ertragskon- Kernressour- Kernprozesse zept cen

E-Business

Kanäle

Gassmann, Sutter

Ressourcen und Fähigkeiten Intelligente Wertketten

Kanäle

Kanäle

Wachstums­ konzept

4 Erlöse

Leistungskonzept

Organisationsstruktur

Wertschöp- Ertragsmofungskonzept dell

Leistungskonzept Ertragskonzept

Kommunika- Ertragskontionskonzept zept

Leistungskonzept

3 Prozess

2 Struktur

1 Mission

Demil, Lecocq

Alt, Zimmermann Bieger, Rüegg-­ Stürm, Rohr Bieger, zu Knyphau­sen-­ Aufseß, Krys Chesbrough

Tab. 3.6  Schlüsselfaktoren eines Geschäftsmodells

Logistik-, Informa­ tionsfinanzflüsse

Wettbewerbsstrategie

Wertverteilung

5 Rechtsaspekte Kompetenzkonfiguration

ITArchitektur

Entwicklungskonzept

Organisa­ tionsform

6 Technologie

8

Potenzielle Kundennutzen

Koopera­ Koordina­ tionskonzept tionskonzept

7

9

88 3  Mit 30 Prinzipien zum Digital Champion

Leistungser- Strategiemo- Netzwerkstellungsmo- dell modell dell

Nutzenversprechen

4 Kanäle

Technologie

5 Einnahmequellen

Kundenmodell

Marktangebotsmodell

Potenzieller Erlösquellen Nutzer für Geschäftspartner Kritische Kernkompe- Kunden Erfolgsfakto- tenzen ren

Wirtz

Weil, Vitale

Timmers

Stähler

Informationsflüsse Ertragsmechanismus Ertragsmodell

2 3 Schlüsselak- Schlüsseltivitäten partner Wettbewerb Strategie

Dienstleistungsflüsse Wertverspre- Wertschöpchen fung NutzenverArchitektur sprechen der Wertschöpfung Akteure und Produkt-, Service- und Rollen Informationsfluss Strategische UmsatzquelZiele len

1 Schlüsselressourcen Wertschöpfungslogik Umsatzflüsse

Rentmeister, Klein Richardson

Osterwalder,Pigneur Porter

Erlösmodell

Lieferanten

Ressourcenmodell

Finanzmodell

GeschäftsNutzen partnerbeziehungen

6 7 8 Nutzen- und Kostenstruk- KundensegWertangebot tur mente

Produkt-, Informations-, Finanzflüsse Beschaffungsmodell

9 Kundenbeziehungen

3.5  Digitale Transformationsumsetzung 89

90

3  Mit 30 Prinzipien zum Digital Champion

Enthält das Geschäftsmodell keine virtuellen Bestandteile, beschreibt es ein klassisches, nichtdigitales Geschäftsmodell. Beinhaltet es sowohl physische als auch virtuelle Bestandteile, lässt es sich als hybrides oder digitalisiertes Geschäftsmodell charakterisieren. Ein rein digitales Geschäftsmodell kann sich dagegen gänzlich ohne operatives Zutun von Menschen realisieren lassen (Hoffmeister 2015). Für die Leistungserbringung durch den Geschäftsmodellanbieter bzw. die Nutzung durch Kunden ist i. d. R. Informationstechnik erforderlich (Schulz 2018). Werden Produkte und Prozesse in digitalisierter Form, ein internetbasiertes Wertversprechen und intelligente Wertketten zusammengeführt, lässt sich daraus ein digitales Geschäftsmodell herleiten (Gassmann und Sutter 2016). Neuausrichtung der Wertgenerierung und Monetarisierung Digitaltechnologien können klassische Geschäftsmodelle veredeln oder machen innovative digitale Geschäftsmodelle erst möglich. In Unternehmen ist ein digitalisiertes Geschäftsmodell als Ergänzung und Weiterentwicklung des meist langjährig bestehenden Geschäftsansatzes zu verstehen. Dabei bezieht sich die Verbesserung oder Erweiterung auf den Einsatz von digitalen Schlüsselfaktoren. Beispiele hierfür sind eine digitale Abrechnung, internetbasierte Kundenkontaktpunkte, der Verkauf analoger oder digitaler Güter über einen Webshop oder die Bereitstellung eines Kundenportals (Self-Service) in der Cloud, bei dem Kunden selbst Teil der unternehmerischen Wertschöpfung werden. Mit Blick auf Geschäftsmodellinnovationen findet eine umfassende, weitreichende Neuausrichtung der Wertgenerierung und Monetarisierung (Jodbauer 2017) durch den Einsatz von Digitaltechnologien auf Prozess-, Produkt- oder Vermarktungsebene statt. Eher selten handelt es sich dabei tatsächlich um ein disruptives oder ganz neu definiertes Geschäftsmodell. Professor Oliver Gassmann konnte in diesem Zusammenhang empirisch darlegen, dass es sich in den meisten Fällen um eine Übertragung bestehender Modelle aus einer Branche, eines Produkts oder eines Unternehmens handelt. Diese Übertragungslogik dürfte auch im künstlich intelligenten Zeitalter weiter gelten, wenngleich ich davon ausgehe, dass die Anzahl echter Erneuerungen allein aufgrund der Vielzahl neuer und mitei­ nander kombinierbaren Technologien steigen wird. Erfolgsfaktoren für digitale Geschäftsmodelle Der globale Wettbewerb findet heute kaum noch auf der Produkt- und Prozessebene statt – sondern v. a. auch auf der Ebene der Geschäftsmodelle und Technologien. Viele Unternehmen setzen dabei auf komplexere Systeme und Lösungen. Die Jahrzehnte lang vorherrschenden Industriegrenzen verschwimmen mit dem breiten Einsatz von Digitaltechnologien und neuen, technologiebasierten Rollen im Markt. Letztere brechen Silostrukturen auf und ersetzen diese durch Ökosysteme. Die wertschöpfungsorientierten, internetbasierten Ökosysteme entstehen einerseits über die Nutzung technologischer Plattformen und andererseits durch die Vernetzung von Unternehmen auf Basis eines gleichgerichteten Verständnisses von partnerschaftlichen Wertschöpfungsszenarien (Gottwald 2018). Eine stärkere Vernetzung mit Kunden und Geschäftspartnern geht einher mit einer höheren Chance, ein neues digitales Geschäftsmodell erfolgreich zu skalieren. Neben part-

3.5  Digitale Transformationsumsetzung

91

nerschaftlich erbrachten Systemlösungen sind es insbesondere datenbasierte Services, die Produkte in ihrer bisheriger Übermachtstellung ablösen. Gemeint sind damit neue Serviceleistungen, die Kunden durch Datenanalyse, vertikale Datenverarbeitung und horizontale Datenwertschöpfung ganz neue Mehrwerte bieten. Im Spagat zwischen Plattformen, Produkten und damit verknüpften, datenbasierten Diensten lassen sich digitale Geschäftsmodelle neu definieren. Aus diesem Grund wird es für Unternehmen immer wichtiger, in neuartigen System- und Lösungszusammenhängen, statt – wie lange üblich – in Produkten zu denken (Meinhardt und Popp 2018). Einige beispielhafte Geschäftsmodellmuster mit Digitalbezug zeigt die Tab. 3.7. Wie Digitaltechnologien Geschäftsmodelle weiterentwickeln Über Schlüsseltechnologien können Unternehmen ihre bestehenden Geschäftsmodelle digital veredeln und neue digitale Geschäftsmodelle entwickeln. Eine schrittweise Optimierung von Produktionsverfahren mit dem Einsatz von Internet der Dinge, Sensortechnik, Big Data Analytics und KI kann zu einer Senkung von Herstellungs- und Betriebskosten führen. Eine verbesserte Durchlaufzeit, Zuverlässigkeit und Liefertreue durch Digitalisierung und Automatisierung von Wertschöpfungsketten geht einher mit einer besseren Kunden- oder Lieferantenbeziehung. Werden gesellschaftliche Marktveränderungen mit Big Data Analytics und KI analysiert, kann eine bessere Kenntnis von Wünschen, Erwartungen und Bedarfssituationen bei Kunden zu einer verbesserten Kundenbeziehung oder höheren Kundengewinnungsraten führen. Datenbasierte, kognitive Assistenzsysteme können zusätzliche Kundennutzen in Echtzeit generieren und zu einem verbesserten Kundenservice beitragen. Solche Beispiele zeigen lediglich einen begrenzten Ausschnitt von weitreichenden Optimierungspotenzialen eines digitalisierten oder digitalen Geschäftsmodells durch den zweckgerichteten Einsatz von Digitaltechnologie. Methoden zur Entwicklung digitaler Geschäftsmodelle In der Praxis stehen Unternehmen viele Methoden zur Verfügung, wenn sie ihr bestehendes Geschäftsmodell weiterentwickeln oder erneuern möchten. • Outcome-Driven-Innovation beschreibt einen kundenorientierten Ansatz zur Identifikation von neuen Geschäftschancen auf Basis von wichtigen und besonders unzureichend erfüllten Kundenbedürfnissen. • Business Model Patterns ermöglichen ein systematisches Hinterfragen von funktionierenden Elementen aus branchenfremden, erfolgreichen Geschäftsmodellen, um diese auf das eigen Geschäftsmodell zu übertragen. • Szenariotechnik leitet ausgehend von Trends, die das bestehende Geschäftsmodell hochgradig beeinflussen, trendantizipierende Szenarien ab und entwickelt neue Geschäftsmodelle innerhalb dieser Szenarien, die Trends bedienen. • Business Model Canvas, Lean Canvas, Value Proposition Design visualisieren mit ihren Frameworks Elemente zur Hinterfragung und Überprüfung des bestehenden Modells oder zur Entwicklung von neuen Geschäftsmodellen.

Webshop mit ausschließlich digitalen Gütern

Beispiele für digitale Geschäftsmodelle

Vorteile für Kunden

Netflix, EA Sports, One Drive, Audible, Parship, SKY Verringerung der Transaktions-kosten; meist Preisvorteile Bequeme Verringerung von Such- bzw. Transaktionskosten; orts- und zeitunabhängige Bestellung

Beispiele für klassische Abonnement einer Geschäftsmodelle Zeitung oder Zeitschrift Beispiele für hybride Amazon Prime, Hilti Webshop mit Geschäftsmodelle Flottenmanagement physischen Gütern

E-Commerce Die Übertragung von internetbasierten Ein- und Verkaufsvorgängen des stationären Handels auf den digitalen Handel mit materiellen und immateriellen Gütern Stationärer Großoder Einzelhandel

Geschäftsmodellmuster Abonnement Kurzbeschreibung Der regelmäßige, wiederkehrende Bezug von Leistungen wird mit digitaler Technologie auf analoge oder digitale Produkte und Services übertragen

Youtube, Google, Udemy, Facebook, Instagram

Höhere Markttransparenz und Vergleichbarkeit; Bequeme Verringerung von Such- und Transaktionskosten Hohe Flexibilität durch Wegfall von verpflichtenden Grundgebühren

Amazon, Uber, eBay, Airbnb, MyHammer

Flohmarkt, Weihnachtsmarkt

Plattform Wertschöpfungsverwandelnde Plattformen bringen Nachfragende und Anbieter zusammen, sodass sie interagieren und beide Gruppen voneinander profitieren

ShareNow, Moobike, Homiegroup Amazon Video, Google AdWords

Pay-per-Use Digitale Abrechnungsform, bei der Kunden keine fixen Beiträge, sondern nur für die tatsächliche Nutzung eines Angebots bezahlen Strom-, Heizöloder Gasbezug

Xing, LinkedIn, Skype, Spotify, GMX, bild. de, Statista, Dropbox Geringere Einstiegsbarrieren durch kostenloses Ausprobieren von Funktionen, Inhalten oder Produkten

Scheibe Lyoner für Kinder an der Wursttheke DIY Drones

Freemium Kostenfreies Angebot von frei nutzbaren Basisleistungen und kostenpflichtigen Premiumleistungen, die sich erst gegen Aufpreis nutzen lassen

Tab. 3.7  Beispielhafte Geschäftsmodelmuster mit Differenzierung zwischen klassischen, hybriden und digitalen Geschäftsmodellen

92 3  Mit 30 Prinzipien zum Digital Champion

3.5  Digitale Transformationsumsetzung

93

• Digital Customer Experience Design schließt User Experience ein und basiert auf Kundenreisen mit Fokus auf spezielle Probleme und Bedürfnisse bestimmter Kundengruppen, um Ansatzpunkte für neue kundennutzenorientierte Geschäftsmodelle zu ­generieren. • Rapid Business Design, Lego Serious Play® setzen auf kinästhetische, spielerische Modellierung neuer digitaler Geschäftsmodelle – im Fokus steht das dreidimensionale Konstruieren und Pitchen von Geschäftsmodelllogiken innerhalb kürzester Zeit. • Blue Ocean strebt die Identifikation dauerhaft profitabler und in Teilen auch radikaler Geschäftsmodelle an, durch den Fokus auf neue, bislang unberührte (Teil-)Märkte mit geringer Wettbewerbsintensität, die Kunden differenzierende und relevante Nutzen bieten.

Beispielhafte Fragen zur Weiterentwicklung des Geschäftsmodells 

1. Welchen Einfluss hat die Digitalisierung auf Ihr aktuelles Geschäftsmodell? An welchen Stellen wird es durch die Transformation Ihrer Branche bedroht? 2. Wie digitalisierbar ist Ihr etabliertes, klassisches Geschäftsmodell, um daraus ein hybrides Geschäftsmodell zu entwickeln? 3. Hat Ihr Geschäftsmodell das Potenzial, exponentiell wachsende Umsatzströme zu generieren? Wenn nein, womit können Sie exponentielles Wachstum erzielen? 4. Auf welche digitalen Basistechnologien setzen Sie derzeit und auf welche noch nicht, obwohl es Ihre Wettbewerber bereits tun? In welchen digitalen Schlüsseltechnologien sehen Sie Hebel, um Ihr Unternehmen für das künstlich intelligente Zeitalter wettbewerbsfähig und kundenwertorientiert aufzustellen? 5. Welche Methoden finden in Ihrem Unternehmen Anwendung, um Ihr aktuelles Geschäftsmodell kontinuierlich zu hinterfragen und weiterzuentwickeln?

3.5.2 Digitale Produkte und Services Intelligent, einfach bedienbar, vernetzt, kommunikationsfähig und datenzentriert in Form von Binärdaten ablegbar, verarbeitbar, darstellbar und übertragbar. Die Vorteile digitaler Produkte sind enorm. Sie lassen sich einfach und beliebig häufig vervielfältigen, sie nutzen sich bei Gebrauch nicht ab, sie sind zu 100 % identisch. Die digitale Transformation wirkt sich weitreichend auf die Produkt- und Servicelandschaft von Unternehmen aus. Entlang eines Kontinuums zwischen rein physischen und rein digitalen Angeboten entstehen neue Produkte in der digitalen Welt (von Frieling 2016). Aus diesem Grund stellen transformierende Unternehmen ihr Portfolio immer wieder auf den Prüfstand. Und loten neue Geschäftschancen aus, die sich im Zuge der Erneuerung oder Erweiterung durch Digitaltechnologie realisieren lassen. So entstehen neuartige Angebote, die ganz fernab von Best Practices oder bekannten Marktstandards, zu neuen Kunden- und Wettbewerbsvorteilen führen.

94

3  Mit 30 Prinzipien zum Digital Champion

Tab. 3.8  Klassen und Merkmale von digitalen Produkten und Services Klassifizierung von digitalen Produkten und Services Digitale Bilder, Audios und Videos Digitale Informationen und Texte Digitale (Hör-)Bücher und Podcasts Softwarebasierte Anwendungen Mobile Apps Virtuelle Anwendungen und Spiele Informationsportale, Serviceportale Webshops Plattformen Cloud-Services

Charakteristische Merkmale von digitalen Produkten und Services Datenbasiert Intelligent Vernetzbar und kombinierbar Monetarisierbar Einfach und günstig reproduzierbar Einfach übertragbar Leicht veränderbar Praktisch unbegrenzt verfügbar Keine gebrauchsbedingte Abnutzung Standortunabhängig nutzbar

Aber was genau sind digitale Produkte und Dienstleistungen? Die Tab. 3.8. zeigt verschiedene Ausprägungen und wie sich digitale von digitalisierten oder digital nachgerüsteten Angeboten hinsichtlich ihrer Digitalisierungstiefe unterscheiden. Bei digitalisierten Produkten handelt es sich um eine hybride Form aus analogen, physischen und digitalen Komponenten. Dabei werden analoge Produkte um digitale Funktionen und Features (Funktionsbündel) erweitert. Als Beispiel dient eine Zahnbürste, die über ein eigenes Display, einen Chip sowie Sender verfügt, die täglichen Aktivitäten der Zahnhygiene qualitativ und quantatativ misst und via WLAN oder Bluetooth zu einer Anwendung in die Cloud sendet. Die dort ausgewerteten Daten werden via App verfügbar gemacht, sodass alle die App aktiv nutzenden Kunden ihre Zahnpflege verbessern können. Dagegen sind rein digitale Produkte daten- oder sensorbasierte, vernetzte oder künstlich intelligente Güter wie Softwareanwendungen, Plattformen oder Dienstleistungen (in der Cloud), die neue Schnittstellen zwischen digitalen und realen Welten bilden. Kundenserviceportal als wichtiger digitaler Selfservicebaustein Digital transformierte Unternehmen bieten ihren Kunden voll automatisierte Ende-zu-­ Ende-­Serviceprozesse an. Damit stellen sie nicht nur eine effiziente Kommunikation mit ihren Kunden, sondern auch einen schnellen Informationsfluss sicher, wenn Informationen ohne Medienbruch abrufbar sind. Statt eine ungewisse und nicht selten lange Zeit in der telefonischen Warteschleife zu warten und zuvor ein computergesteuertes Auswahlmenü durchlaufen zu müssen, ziehen es immer mehr Kunden vor, sich an ihrem Laptop oder ihrem Smartphone auf dem Kundenportal eines Unternehmens einzuloggen. Hier kommen sie – wenn das digitale Angebot intuitiv nutzbar ist – einfach und schnell zur gesuchten Zielinformation. Dabei führen Kunden z.  B. eine Leistungsanpassung oder ­Garantieabwicklung digital aus. Sie überwachen Kostenpositionen oder Datenströme, verwalten ihre Werkzeuge und Maschinen oder beauftragen neue Produkte oder Dienstleistungen – all dies, ohne Menschen dahinter zu bemühen.

3.5  Digitale Transformationsumsetzung

95

Digitale Services sind kein Add-on Mit der Digitalisierung von Services senken Unternehmen nicht nur ihre Betriebskosten. Weiterhin ergeben sich Umsatzquellen. Da digitale Dienstleistungen zum Kern der Markendifferenzierung beitragen können, dürfen Unternehmen digitale Dienste nicht als Add-on behandeln (Strube 2018). Die digitale Servicefähigkeit ist zum Erfolgsfaktor für herausragende Kundenbeziehungen geworden – insbesondere, weil die Serviceerwartungen kontinuierlich steigen. Anders als digitale Softwareprodukte sind digitale Dienstleistungen stark an Kundenerlebnisse aus einem Guss geknüpft. Wenn wir selbst als Kunde einen digitalen Service in Anspruch nehmen, erwarten wir eine schnelle und bequeme (Problem-)Lösung. Dabei interessiert uns nicht, welche Technologien oder Prozesse im Hintergrund ablaufen oder welche Datenbank, Datenbasis, Serverinfrastruktur oder Programmierlogik dahinter liegen. Uns interessiert einzig und allein, wie schnell und kognitiv entlastend sich unsere Anliegen lösen lassen und ob es gelingt, dass analoge und digital erbrachte Dienstleistungen für uns nahtlos ineinander übergreifen. Wie digitale Produkte und Services immer intelligenter werden Mit steigenden Datenströme, Vernetzungsmöglichkeiten und Technologiesprüngen werden Produkte intelligenter. Voraussetzung für Produktintelligenz ist eine neue Technologiein­ frastruktur mit neuer Produkthardware, eingebetteter Software, Netzwerkkomponenten, Cloud-Umgebungen, einer Reihe von Sicherheitswerkzeugen, Schnittstellen zu externen Datenquellen sowie der Anbindung an andere Unternehmenssysteme (Rüsing 2016). In den letzten Jahren ist ein Anstieg intelligenter Produkte und Services in der Cloud zu beobachten. Über Machine Learning, Deep Learning und Big Data Analytics in Cloud-­ Umgebungen werden Produktdaten erfasst, verarbeitet und analysiert, um daraus Erkenntnisse für Produkt- oder Serviceverbesserungen zu gewinnen. Über Sensoren, die Zustandsund Nutzungsdaten erfassen, vergrößern Unternehmen ihre Optionsräume, indem sie auf das Nutzerverhalten und die Vorlieben ihrer Kunden reagieren. Sie werten die sensorseitig erfassten Daten gezielt aus, um besser nachzuvollziehen, wie ihre Kunden die unterschiedlichen Angebote und Funktionen nutzen. Anschließend passen sie ihre intelligenten Produkte an die Nutzungsgewohnheiten und Bedarfssituationen ihrer Kunden an. Oder sie vernetzen diese mit anderen Produkten und Dienstleistungen, die selbstständig miteinander kommunizieren. Oder sie erschließen neue Einnahmequellen, z. B. mit Abonnement- oder Lizenzmodellen für die digitale Überwachung, Wartung und automatische ­After-­Sales-­Produktverbesserung. Beispielhafte Fragen zu digitalen Produkten und Services

1. Wie hoch ist Ihr Anteil an digitalen Angeboten im Vergleich zu klassischen Angeboten in Prozent? 2. Welche neuen digitalen Produkte oder Services würden Ihrer Organisation einen echten Wettbewerbsvorteil in Aussicht stellen? 3. Welche digitalen, intelligenten Zusatzservices könnten Ihren Kunden neben den derzeitigen Kernprodukten Mehrwerte stiften und zu einer Erlössteigerung führen?

96

3  Mit 30 Prinzipien zum Digital Champion

4. Wie lange brauchen Sie, um eine neue Geschäftsidee prototypisch als Minimum Viable Product zu entwickeln und im Markt auf Akzeptanz zu testen? 5. Bei welchen Produkten oder Services Ihres aktuellen Portfolios ist KI bereits Teil Ihrer Wertschöpfungsarchitektur?

3.5.3 Digitale Kundenerlebnisse Ein Begriff, der fast immer im Zuge des digitalen Wandels fällt, ist Customer Experience. Gemeint sind damit möglichst herausragende, konsistente und passgenaue Kundenerlebnisse als Summe aller Erfahrungen, die Kunden an den Kundenkontaktpunkten mit einem bestimmten Unternehmen machen. Kunden wünschen sich, wenn sie mit einem Unternehmen in Kontakt treten, ausschließlich positive Erlebnisse mit Nachhall. Ganz gleich, ob sie etwas suchen, kaufen, nutzen oder reklamieren wollen. Jede Begegnung soll in ein positives Kundenerlebnis münden. Vorteile von positiven Kundenerfahrungen Aufgrund der gestiegenen Transparenz und Austauschbarkeit von Unternehmen und Angeboten, zunehmend gesättigten Märkten und starken Konkurrenzsituationen, stehen positive Kundenerlebnisse seit Jahren weit oben auf der Agenda digital transformierender Organisationen. Sind die Erfahrungen, die Kunden mit Unternehmen machen, positiv, wirkt sich dies messbar förderlich auf Kundenzufriedenheit, Kundenloyalität und Weiterempfehlung aus. Positive Kundenerlebnisse erhöhen die Erinnerungsleistung und Kundenzufriedenheit und kurbeln Cross- und Up-Selling an. Mit positiven Kundenerfahrungen realisieren Unternehmen Differenzierungsvorteile im Wettbewerb. Sie verkaufen nicht nur mehr, sondern können zudem höhere Preise durchsetzen: In den vergangenen Jahren zeigten gleich mehrere Studien von Bain & Co, Walker Research oder Avanade, dass positive Kundenerfahrungen mit einer gesteigerten Zahlungsbereitschaft einhergehen. Diskrepanz zwischen Eigen- und Fremdwahrnehmung Die Kollegen von Capgemini befragten 2017 rund 450  Führungskräfte und 3.300  Ver­ braucher zu digitalen Kundenerlebnissen. Dabei fanden die Studienleiter heraus, dass Selbstwahrnehmung aus Sicht der Unternehmen und Fremdwahrnehmung aus Sicht der Kunden deutlich unterschiedlich ausfielen (Capgemini 2017). Während 75 % der befragten Manager von einer kundenzentrischen Ausrichtung ihrer Organisation ausgingen, attestierten dies lediglich 30 % der befragten Verbraucher. Zur Messung der Kundenzu­ friedenheit verwendeten die Kollegen den Net-Promoter-Score (NPS), der die Weiterempfehlungsbereitschaft von Produkten und Dienstleistungen misst. Auch hier zeigte sich Dissonanz. So glaubten 90 % der befragten Unternehmen, dass sich ihr Net-Promoter-Score innerhalb von drei Jahren um 5 % verbessert hat. Dem stimmten allerdings nur die Hälfte der befragten Kunden zu.

3.5  Digitale Transformationsumsetzung

97

Wie herausragende digitale Kundenerlebnisse die Kundenerwartungen verändern Seit Jahren profitieren Kunden durch die digitale Interaktion mit Unternehmen – angefangen bei der Informationsbeschaffung über die Kontaktaufnahme bis hin zur Nutzung von digitalisierten After-Sales-Services nach Kaufabschluss. Die digitale Transformation des Handels hat das Einkaufen von überall aus auf Knopfdruck möglich gemacht. Sobald ein digitales Angebot bezahlt wurde, lässt es sich lesen, hören, anschauen oder anderweitig nutzen. Und das in kürzester Zeit. Heutzutage lässt sich ein Produkt über die Amazon-App über die Funktionen „Jetzt kaufen“ oder „Dash-Buttons“ innerhalb von weniger als zehn Sekunden verbindlich bestellen. Schneller ist kaum noch möglich. Geliefert wird auf Wunsch noch am gleichen Tag und zukünftig voraussichtlich innerhalb von nur einer Stunde. Tests in die Richtung finden bereits statt. Damit schafft Amazon digitale Marktstandards in puncto Einfachheit, Geschwindigkeit und Bequemlichkeit, die für die meisten Wettbewerber schwer erreichbar geworden sind. Und genau solche Erfahrungen stehen häufig im Widerspruch mit den Erfahrungen, die Endkunden machen, wenn sie auf traditionelle Unternehmen treffen, deren Produktportfolio und Service noch weitgehend klassisch-­analog ausgerichtet sind. Kundenerwartungen (über-)treffen Kunden sind heute anspruchsvoller denn je. Sie erwarten einfach bedienbare und überzeugende Produkte und Serviceangebote sowie erstklassige Erfahrungen an allen Touchpoints des Unternehmens. Liegen ihre Erfahrungen unter ihren Erwartungen, tauschen die Kunden – wenn es sich einfach und schnell realisieren lässt – ihren Produkt- oder Serviceanbieter erbarmungslos aus. Dies gilt insbesondere für die Nachwuchsgenerationen Y (geboren in den 1980er- oder 1990er-Jahren) oder Z (geboren in den 2000er-Jahren). Diese gestiegene Anspruchshaltung bringen drei marktprägende Trends aus dem Silicon Valley (Burkhardt 2018) sowie zwei weitere Trends auf den Punkt: 1. „Don’t make me wait for it!“ Lass mich nie wieder warten. Nachwuchsgenerationen möchten nicht mehr lange auf etwas warten müssen – am liebsten gar nicht warten. Aus diesem Grund stellen sich Organisationen im Silicon Valley die Frage, wie sie die Wartezeit ihrer Kunden drastisch verringern können. Gelernte Erfahrungen wie Same-­ Day-­Delivery bei Amazon oder „Wir-liefern-innerhalb-von-120-Minuten“ beim Getränkelieferservice Flaschenpost führen dazu, dass der Nutzen sofortiger Verfügbarkeit ein höheres Gewicht erfährt. So dauert beispielsweise das Recruiting im Silicon Valley häufig weniger als 24  Stunden. Kurze  Wartezeiten gelten  ebenso für die interne als auch externe Kommunikation von Unternehmen. Je schneller Entscheidungen getroffen, E-Mails beantwortet oder Bewerbungsverfahren abgeschlossen werden, desto eher stellen sich positive Erlebnisse bei Bewerbern, Kunden, Geschäftspartnern oder Kollegen ein. 2. „Dont’t make me ask for it!“ Biete mir das an, was ich brauche. Jüngere Generationen sind nicht mehr zu akzeptieren bereit, dass Unternehmen ihre Bedarfe und Bedürfnisse nicht kennen oder nicht ernst genug nehmen. Gelingt es Unternehmen, pass-

98

3  Mit 30 Prinzipien zum Digital Champion

genaue Produkte, Services und Erlebnisse zu kreieren und neue Bedarfe frühzeitig zu antizipieren, treffen sie ihre Kundenerwartungen nicht nur: Mithilfe von fortschritlichen Technologien können sie diese sogar übertreffen, sich vom Wettbewerb differenzieren und bisherige Kundenbeziehungen festigen. 3. „Don’t make me buy it!“ Hör auf, mir was zu verkaufen. Nachwuchsgenerationen möchten nicht mehr etwas proaktiv verkauft bekommen. Aus diesem Grund ist davon auszugehen, dass die klassische Verkaufsberatung einer differenzierteren Form weichen wird, die bedarfsorientiert, kundendatenbasiert, kontextbasiert und vorausschauend ist. Vor diesem Hintergrund lassen sich stationäre Geschäfte umgestalten in inspirierende Showrooms, um Produkte sinnlich erfahrbar zu inszenieren und um herausragende Kundenerlebnisse zu schaffen. An welchem Kundenkontaktpunkt der Verkauf am Ende stattfindet – wird zukünftig weniger im Vordergrund stehen. Christoph Burkhardt spricht in diesem Zusammenhang von Vertrauensbildung durch die Abschaffung von Kaufzwang. 4 . „Don’t make me think!“ Mach es einfach für mich. Eigentlich wollten Kunden noch nie zu viel oder zu lange nachdenken müssen. Der Anspruch, der spätestens mit dem Usability-Gebot beim Aufbau und der Interaktion auf Webseiten durch Steve Krug an Bedeutung gewann, hat bis heute nicht an Relevanz verloren – denn das Grundprinzip der benutzerfreundlichen Handhabung hat sich nicht geändert. Verständlich, zugänglich und einfach bedienbar sollen digitale Produkte und Dienstleistungen seit jeher sein. Kunden möchten nicht lange darüber nachdenken, um welches Digitalangebot es sich gerade handelt und von welchem  Nutzen sie profitieren können. Als kognitive Geizkragen wollen sie möglichst einfach und bequem ans Ziel kommen. Ist das Angebot einfach aufgebaut, steigt die Achtsamkeitsspanne. Ist  es kompliziert, sinkt diese und führt zum frühzeitigen Abwandern von Kunden. 5. „Let me do it on my own!“ Lass es mich selber machen. Das Marktforschungsunternehmen Forrester ermittelte bereits 2014 eine Nutzungsbereitschaft von webbasierten Selfserviceangeboten von 76 % – Tendenz steigend. Immer mehr Kunden ziehen es vor, sich auf (mobilen) Webseiten eigenständig zu informieren, als in einem Callcenter anzurufen und in der Warteschlange je nach Stoßzeit bis zu einer Stunde warten zu müssen. Kunden von heute erwarten integrierte Angebote, die weit über klassische FAQ-Hinweise hinausragen, um bestimmte Handlungen auch ohne Call-Center oder persönlichen Kundenberater ausführen zu können. Sie wollen Produktinformationen oder Erklärvideos abrufen, spezifische Probleme eigenständig lösen oder Produkte nachkaufen. Dessen ungeachtet habe ich in meinem ganzen Leben noch keine einzigen FAQs gefunden, die so individuell und zutreffend aufbereitet waren, dass ich mich sofort verstanden gefühlt hätte. Vielmehr wirken sie wie eine leblose, kontext-­ vermeidende Auflistung der Top10-Probleme, die Unternehmen digital lösen wollen ohne dies tatsächlich zu tun. Ich bin mir sicher, dass KI hier Abhilfe schaffen und FAQs perspektivisch durch intelligente  vollautomatische  Kundendialoge  ersetzen wird.

3.5  Digitale Transformationsumsetzung

99

Passgenaue, datenbasierte Angebote, die das Leben von Kunden vereinfachen und verbessern Unternehmen können ihre digitalen Kundenerlebnisse verbessern, indem sie ihre Nähe zu Kunden erhöhen. Über zentral erfasste Kundendaten und leistungsfähige Analysetools sind sie in der Lage, Bedarfe und Wünsche frühzeitig zu kennen und ihr Produktangebot so auszurichten, dass sich Kunden verstanden fühlen und echte Mehrwerte erleben. Leistungsfähige CRM-Systeme gepaart mit Big-Data-Analytics-Werkzeugen ermöglichen die Auswertung von Präferenz-, Verhaltens- und Transaktionsdaten, um Erkenntnisse in Echtzeit zu gewinnen und diese in direkte Kundennutzenpotenziale zu übersetzen. Ein tiefgehendes, ganzheitliches Kundenverständnis ist eine notwendige Voraussetzung für Unternehmen, ihre Begegnungen mit Kunden zu echten Erlebnissen werden zu lassen. Weisen digitale Kundenbeziehungen bereits einen hohen Reifegrad auf, wissen Unternehmen nicht nur, was ihre Kunden heute brauchen oder sich wünschen. Sie überraschen ihre Kunden mit Produkten und Lösungen, die diese gut gebrauchen könnten, ohne dass sie sich dessen überhaupt vorher bewusst waren. Und sie kennen ihre Kunden so gut, dass sie wissen, was ihre Kunden ab wann zukünftig brauchen werden. Daher unterbreiten sie ihren Kunden zum richtigen Zeitpunkt passgenaue Vorschläge, um sie positiv zu  überraschen. Einen Gesamtüberblick mit 15 Impulsen für ein erfolgreiches Managen digitaler Kundenerlebnisse zeigt die Abb. 3.3. Herausragende Kundenbeziehungen managen Um aus zufriedenen Kunden, loyale Kunden und aus loyalen Kunden, begeisterte Markenbotschafter der eigenen Marke oder Produktewelt zu machen und die Nutzungsintensität, Kaufbereitschaft und Weiterempfehlungsrate zu steigern, setzen Unternehmen auf digitalisierte, nahtlose Ende-zu-Ende-Kundenerlebnisse über alle für Kunden relevanten Wahrnehmungspunkte hinweg. Sie verbessern ihre digitalen Kundenbeziehungen durch die fortlaufende, ganzheitliche Optimierung von Marketingkanälen, Kampagnen und Angeboten. Sind die Kommunikations- und Interaktionsprozesse zum Kunden hin digitalisiert, lassen sich diese miteinander verknüpfen, automatisieren und mit (künstlicher) Intelligenz anreichern. So profitieren Unternehmen einerseits durch Effizienzgewinne und Zusatzerlöse sowie Kunden andererseits durch hohe Qualität und Geschwindigkeit bei der Kommunikation und Interaktion mit Unternehmen. Künstliche Intelligenz wird die Qualität digitaler Kundenbeziehungen verbessern Als Supertechnologie wird KI Schritt für Schritt zu besseren Kundenerlebnissen beitragen. Mit moderner KI-Unterstützung können Unternehmen ihre Arbeitskosten senken, indem künstlich intelligente Softwares beispielsweise einfache Anfragen und Aufgaben übernehmen, die bis dahin im Verantwortungsbereich von Kundendienst- oder Callcenter-­ Mitarbeitern lagen. Zu unterscheiden sind allgemeine virtuelle Kundenberater bzw. -beraterinnen im First-Level-Support und auf ein bestimmtes Betrachtungsfeld spezialisierte, virtuelle Kundenberater, die nicht nur einfache Anfragen beantworten, sondern zuneh-

100

3  Mit 30 Prinzipien zum Digital Champion

Abb. 3.3  Framework Digital Customer Experience Management

mend auch Second-Level-Support-Funktionen wahrnehmen können. KI wird U ­ nternehmen dabei unterstützen, Kundenanfragen automatisch auszuwerten und Erkenntnisgewinne bei der Trendanalyse von Kundenzufriedenheit liefern. Darüber hinaus wird KI Unternehmen dabei unterstützen, kundenindividuelle Zusatzleistungen anzubieten und gleichzeitig zu besseren Kundenerlebnissen und Zusatzerlösen beitragen. Beispielhafte Fragen zu digitalen Kundenerlebnissen

1. Wie nehmen Ihre Kunden ihre Begegnungen an den Kontaktpunkten Ihres Unternehmens derzeit wahr? 2. Wie individualisieren Sie derzeit Ihre Kundenerlebnisse, um sowohl die Neukundengewinnung als auch Kundenbindung zu verbessern? 3. In welchen Zyklen aktualisieren Sie die Customer Journeys für Ihre Personas? 4. Welche digitalen Markttrends haben besonderen Einfluss auf das Management Ihrer Kundenbeziehungen? 5. Wie zufrieden sind Ihre Kunden mit Ihren aktuellen Selfserviceangeboten? Mit welchen Servicebausteinen unterscheidet sich Ihr Unternehmen von Ihren Mitbewerbern?

3.5  Digitale Transformationsumsetzung

101

3.5.4 Digitale Führung Unter digitaler Führung werden Führungskontexte verstanden, die nicht in einer gemeinsamen physischen Umgebung stattfinden (Colfax et al. 2009) und daher in der Kommunikation auf digitale Technologien angewiesen sind (Buhse 2012). Führung im digitalen Zeitalter spielt eine ganz wesentliche Rolle, wenn nicht sogar die entscheidende im Transformationsprozess. Unter dem Bezugsrahmen der digitalen Führung fallen Führungsprinzipien, Führungsaufgaben und Führungswerkzeuge. Dabei geht die digitale Führung über klassische Führungsthemen weit hinaus, da sie einerseits neue Werte und Prinzipien und andererseits neue Formen der Zusammenarbeit und Entscheidungsfindung in der Organisation verankert. Wechsel zwischen Hierarchie und Netzwerken Jeder Transformationsprozess sollte bei den Menschen und der Unternehmenskultur beginnen – und nicht nur auf einer abstrakten Ebene der Organisation. Es liegt an den Führungskräften, Führung bewusst auszugestalten (Duwe 2016). Dabei lassen sich notwendige Veränderungen nicht einfach beschließen und anschließend von oben nach unten durchdrücken. Führung im digitalen Zeitalter bedeutet, Brücken zwischen Hierarchien und Netzwerken zu bauen und je nach Anforderung zwischen Hierarchie und vernetzten Führungsmustern zu wechseln (Buhse 2014). Dabei gibt es keinen Königsweg. Manchmal funktioniert die Umsetzung in der Linie besser, wenn es beispielsweise darum geht, bestimmte Risiken abzusichern oder kritische Termine einzuhalten. In anderen Fällen kann die Umsetzung im Netzwerk die bessere Wahl sein, um möglicherweise schneller und mit einer höheren oder kreativeren Ergebnisgüte die Zielmarke zu passieren. Wichtiger als die Umsetzungsform ist die Fähigkeit, beides abrufen und je nach Ausgangssituation und Zielsystem agil zwischen beiden Varianten umschalten zu können. Diese Unterscheidungs- und kontextsensitive Abruffähigkeit ist die hohe Kunst der Führung im digitalen Zeitalter. Vernetztes, partizipatives und diszipliniertes Arbeiten Da klassische Linienorganisationen durch die Dynamik der Digitalisierung an Grenzen stoßen, setzen Unternehmen im digitalen Führungskontext kollaborative Arbeits- und Kommunikationswerkzeuge ein, um höhere Vernetzungsgrade zu erreichen. Offenheit erzielen sie über höhere Transparenz in der Organisation, die über Abteilungs- oder Bereichsgrenzen hinausgeht. Bei Mitarbeitern und Teams, die in Netzwerkstrukturen agieren, steigt das Wir-Gefühl und das Vertrauen. Der Grund dafür liegt in der freieren und natürlicheren Arbeitsweise jenseits von starren Strukturvorgaben. Über die Einführung und Weiterentwicklung partizipativer Führungsmodelle erzielen Führungskräfte größere Grade an Schnelligkeit, Agilität und Flexibilität in den Entscheidungen (Creusen et  al. 2010). Demzufolge achten sie darauf, dass ihre Mitarbeiter an wichtigen Entscheidungen partizipieren können. Sie fördern agiles Arbeiten und lernen einen Teil ihrer Verantwortung abzugeben, um ihre Mitarbeiter und Teams schrittweise an ein autonomeres Arbeiten heranzuführen. Dadurch fühlen sich die Mitarbeiter nicht einfach nur als Leistungsträger verstanden und führen ihre Aufgaben mit höher Eigenmotivation und Einsatzbereitschaft

102

3  Mit 30 Prinzipien zum Digital Champion

aus. Obwohl sich digitale Führungsprinzipien durch eine Reihe neuer Freiheiten für Mitarbeiter auszeichnen, ist auch eine disziplinierte Umsetzung von Projekten und Aufgaben wichtig. Denn gerade selbstorganisierte Teams benötigen jenseits von hierarchisch geführten Strukturen viel Disziplin, um Wertzuwächse für ihre Organisation zu realisieren. Förderung dezentraler Entscheidungsprozesse Weg von zentral-direktiver Führung – hin zu dezentral-kollaborativer Führung: Im digitalen Zeitalter spielen dezentrale Entscheidungsprozesse eine bedeutende Rolle. Alternativ zur hierarchischen Führung werden Entscheidungen nicht mehr durch zentrale Entscheidungsträger getroffen. Sie ergeben sich vielmehr als Folge selbstorganisierter, dezentraler Prozesse. Die Mitarbeiter erhalten keine auf Dauer angelegten Aufgaben mehr. Sie definieren ihre Aufgaben je nach Anforderungen und Zielsystem immer wieder neu. Damit kommt der Unternehmensleitung weniger die Aufgabe der direkten Führung und Kon­ trolle, als vielmehr die der Steuerung von Entscheidungsprozessen zu. Je höher sich die Anzahl und Intensität der Interaktionen zwischen den Mitarbeitern darstellen, desto autarker arbeiten diese. Denn das Autonomieniveau von Organisationseinheiten und ­ Teams steigt proportional zur Dichte der Netzwerke (Bartlett und Ghoshal 1990). Virtuelle Führungsarbeit auf Distanz In modernen Organisationen arbeiten Mitarbeiter so zusammen, dass sie nur noch selten einen physischen Kontakt zueinander halten. Dabei liegt die Herausforderung der Arbeit in virtuellen Räumen oder in virtuellen Teams nicht in der Technik allein. Vielmehr ist ein wesentlicher Erfolgsfaktor des Managements dezentraler Organisationseinheiten der Informationsaustausch und Wissenstransfer in horizontaler und vertikaler Richtung (Grandpierre 2017). So sind Informationen zwischen einzelnen Projekten horizontal zu verteilen. Und weiterhin ist ein reibungsloser Informationsfluss entlang der Hierarchiestufen aufund abwärts erforderlich. Im Gegensatz zur Führung von Präsenzteams über motivierende Worte und persönliche Sinnvermittlung bedarf es bei virtueller Führung von Teams einer kontinuierlichen Interaktion, rechtzeitiger und klarer Informationsweitergabe und konstantem Feedback – mehr als es in nichtvirtuellen Teams notwendig ist. Darüber hinaus arbeiten virtuelle Teams produktiver, wenn die Führung aufgeteilt ist. Setzen Führungskräfte diese beiden Faktoren zueinander in Bezug, führen sie im virtuellen Kontext mit klarer Struktur und sind gleichzeitig bereit, Führung abzugeben und selbst als Teil des Teams zu agieren. Die erfolgreiche Führungskraft von morgen nimmt somit die Rolle des Strukturgebers mit einer coachenden Funktion ein (Becks 2017). Betroffene zu Befürwortern des digitalen Wandels entwickeln Organisieren Führungskräfte die geplanten Veränderungsschritte nachvollziehbar und kommunizieren sie neue Werte begründet, steigern sie die Chance, aus Betroffenen Befürworter von digitalen Veränderungen zu machen. Führen Manager wertschätzend, nehmen sie Mitarbeitern Sorgen und Ängste, damit diese Spaß und Leidenschaft an dem entwickeln können, was sie tagein, tagaus tun, trotz aller perspektivischen Ungewissheit. Um zu

3.5  Digitale Transformationsumsetzung

103

vermeiden, dass die Bindung ans Unternehmen vom oberen zum unteren Management nachlässt, und möglichst viele Mitarbeiter bei der Transformation mitziehen, ist das Top-Managementteam gefragt, eine glaubwürdige digitale Attitüde vorzuleben, digitale Tools aktiv zu nutzen und immer wieder in Erfahrung zu bringen, auf welcher Ebene Vertrauensverluste beim Unternehmensumbau entstanden sind, um Ängste und Widerstände konstruktiv und mit Sinngebung aufzulösen. Dazu ist es von enormer Bedeutung, dass das mittlere und das Top-Management die neuen Technologien verstehen, erlernen und ein organisationsweites Bewusstsein für die Notwendigkeit des Wandels schaffen (Sherif und Menon 2004). Starkes Leitbild, das Mitarbeiter motiviert Zu einem digitalen Führungssystem gehört ein Leitbild, das Mitarbeiter überzeugt und motiviert. Mit einem solchen Leitbild bringt die Organisation zum Ausdruck, wie sie sich ihre digitale Zukunft vorstellt und welchen Werteraum sie für ihre Kunden und Organisation als sinnvoll erachtet. Weiterhin beantwortet ein zentrales Leitbild die Frage nach der Daseinsberechtigung des Unternehmens in digitalen Marktumfeldern (Diehl 2018). Vor diesem Hintergrund stellen digitalaffine Führungskräfte das bisherige, historisch gewachsene Leitbild auf den digitalen Prüfstand. Sie prüfen, wie motivierend es ausgerichtet ist und verändern es so, dass ein neuer zukunftsgerichteter Bezugsrahmen für eine moderne Organisation entsteht. Beim neuen Leitbild sollten Manager darauf achten, ihren Mitarbeitern ein größeres Maß an Autonomie einzuräumen, um bestimmte Entscheidungen eigenständig zu treffen und zusätzliche Verantwortung zu übernehmen. Darüber hinaus fördert eine offene Fehlerkultur Vertrauensvorschüsse auf beiden Seiten. Führungskräfte schenken ihren Mitarbeiter Vertrauen, die sich in zusätzlicher Verantwortung ausdrückt. Und Mitarbeiter vertrauen ihren Führungskräften, dass Fehler keine negativen Konsequenzen nach sich ziehen, solange sie sich an das vorgegebene Leitbild halten. Digitale Führung als Langstreckenlauf Menschen im digitalen Zeitalter wirksam zu führen, ist ganz sicher kein Kurzstreckenlauf, sondern ein Marathon. Um ein digitales Führungssystem in die DNA einer Organisation zu übertragen, bedarf es an ungebremster Ausdauer. Wenngleich es für den Lauf keine Blaupause gibt, die sich auf jede beliebige Organisation übertragen ließe, vermitteln die Schlüsselprinzipien in Tab. 3.9. einen guten Überblick zur Weiterentwicklung des eigenen Führungssystems. Beidhändige Führung Je mehr Funktionsbereiche digital denken und digital vernetzt arbeiten, desto erfolgreicher könnten Unternehmen die digitale Transformationsreise umsetzen. Idealerweise erfolgt die Weiterentwicklung der Organisation beidhändig. Mit der einen Hand führen die Führungskräfte transaktional im Sinn von Verteilung klarer Ziele und Aufgaben, um das Kern- und Tagesgeschäft umzusetzen und wenn möglich weiter auszubauen. Mit der anderen Hand führen sie transformational, indem sie neue, innovative Ideen und Ansätze

104

3  Mit 30 Prinzipien zum Digital Champion

Tab. 3.9  Schlüsselprinzipien bei Digital Leadership Sechzehn Schlüsselprinzipien eines digitalen Führungssystems Vorleben eines glaubwürdig und authentisch Kontextsensitiver Wechsel zwischen transportierten digitale Attitüde Hierarchie und Netzwerk Beidhändige Führung durch Verteilung Auflösung von Ängsten und Widerständen in klarer Ziele und Aufgaben des den eigenen Reihen durch Schaffung von Tagesgeschäfts und Entwicklung neuer, Transparenz zur Notwendigkeit der geplanten innovativer Ideen und Ansätze Veränderungen Neue Führungsrolle als Vordenker, Vorbild, Etablierung einer gelebten Vertrauens- und Strukturgeber und Coach Fehlerkultur auf Top- und mittlerer Managementebene Führung virtueller Teams über klare Förderung von vernetztem Informationsweitergabe, kontinuierliche Zusammenarbeiten innerhalb und Interaktion und konstantes Feedback außerhalb von Geschäftsbereichen und Abteilungen Durch Transformation betroffene Investitionen in digitale Tools und Arbeiten Führungskräfte und Mitarbeiter zu mit den Tools auf Führungsebene Befürwortern des Wandels machen Wertschätzende Förderung und Schulung von Förderung von Selbstverantwortung und betroffenen Mitarbeitern dezentralen Entscheidungen Erkennung von digitalen Talenten und Förderung von Eigeninitiative und Fähigkeiten Potenzialentfaltung Aufbau oder Weiterentwicklung eines digitalen Bereitschaft, falsche Entscheidungen schnell Wissensmanagements zu korrigieren

entwickeln lassen und ihre Mitarbeiter darin fördern. Auf diese Weise greifen beide Mechanismen ineinander. Das öffnende Verhalten fördert die Kreativität der Mitarbeiter. Sie erhalten Raum für ihre eigenen, neuen Ideen. Ihre Neugier verstärkt sich. Gleichzeitig entlastet eine offene Fehlerkultur Mitarbeiter ebenso wie die Autonomie, die ihnen gewährt wird (Konrad 2017). Dagegen greift schließendes Verhalten, wenn die neuen Ideen in die Realität umgesetzt werden. Dabei gilt es regelmäßige Abläufe und Routinen zu etablieren, Risiken zu beachten und Regeln einzuhalten. Das Prinzip der beidhändigen Führung ist ein vielversprechendes Führungsmodell für die VUCA-Umwelt – und gleichzeitig eine der großen Herausforderungen für Führungskräfte in der digitalen Ära. Beispielhafte Fragestellungen im Kontext von digitaler Führung

1 . Welche Ihrer Führungskräfte leben eine glaubhafte digitale Attitüde vor? 2. Wie intensiv setzen Ihre Führungskräfte auf Vernetzung, um Bereichsgrenzen zu überwinden und Silodenken abzubauen? 3. Wie führen die Manager ihre virtuellen Teams? 4. Wie fördern die Führungskräfte die Selbstorganisation von Teams und das Ausprobieren neuer Ideen? 5. Wie unterstützen Ihre Führungskräfte die Zusammenarbeit zwischen Mitarbeitern und kollaborativen Maschinen („CoBots“) in Form von (Software-)Robotern?

3.5  Digitale Transformationsumsetzung

105

3.5.5 Digitale Attitüde Eine digitale Attitüde baut auf dem Verständnis auf, dass Digitalisierung massiven Einfluss auf unser Leben, unsere Arbeit und unsere Kommunikation hat (Scheller 2017). ­Somit beginnt die digitale Transformation in den Köpfen. Menschen mit einer digitalen Attitüde haben eine offene, positive und neugierige Grundhaltung, Denkart und Einstellung gegenüber digitalen Erneuerungen. Sie erkennen darin Chancen für neue Technologien, Produkte, Geschäftsmodelle, Prozess- oder Kulturverbesserungen. Somit geht digitaler Wandel einher mit einer neuen Haltung, um veraltete Denkmuster zu überwinden und sich für neue digitale Erfahrungen zu öffnen. Offen sein für neue Technologien und Arbeitsmethoden Mitarbeiter mit einer digitalen Attitüde zeigen sich offen gegenüber neuen Technologien und ihren Funktionsweisen. Die gleiche Offenheit bringen sie digitalen Arbeitsmethoden entgegen. In den vergangenen Jahren haben sich viele neue Arbeitsmethoden im Markt etabliert, um digitale Transformation wirksam zu gestalten und voranzutreiben: • Customer Journey Mapping: Erkundung von Zyklen, die Kunden vor Produktkauf durchlaufen, um ein Verständnis für die Präferenzen und das Verhalten von Kunden zu entwickeln und die Unternehmensaktivitäten daran auszurichten • Value Proposition Design: Verstehen von Kundenbedürfnissen und ‑problemen  zur Entwicklung von Produkten und Lösungen, die genau die Wünsche und Bedürfnisse von Kunden treffen sollen • Design Sprint: Hochverdichteter Prozess, der in fünf Tagen von einer konkreten Frage über Ideen, Protoypen und Tests zu greifbaren Lösungen führen soll  • Design Thinking: Kundenzentrierter, strukturierter Ansatz zum Lösen von komplexen Problemstellungen und Entwicklen neuer Ideen • Kanban: Methode zur Produktionsprozessteuerung mit einer strukturierten Visualisierung und übersichtlichen Abarbeitung von Aufgaben • Scrum: Vorgehensmodell des Projekt- und Produktmanagements zum  agilen  Vorantreiben und Managen digitaler Projekte • Lean Startup: Entwickeln und Testen digitaler Geschäftsideen mit Hypothesen und Entwicklen von Minimum Viable Products • Moonshot Thinking: Brainstorming-Methode zur Weltverbesserung mit technologischem Erfindergeist für radikale Produkt- und Service-Innovationen • Narrative Memo: Storytelling mit erzählerischer Struktur und Geschichten in Abgrenzung zu klassischen Powerpoint-Präsentationen, um gute Diskussionen und Entscheidungen zu ermöglichen • Team Canvas: Business Model Canvas für die Teamarbeit, um Team-Sitzungen effizienter zu organisieren, Ziele zu klären, Motivationen herauszufinden, Konflikte zu lösen, sich besser aufeinander abzustimmen und eine produktive Kultur zu entwickeln

106

3  Mit 30 Prinzipien zum Digital Champion

Natürliche Neugier entfalten Aufgeschlossen zu sein für Neues in der digitalen Welt und sich ungewohnten Situation auszusetzen, ist Teil einer digitalen Attitüde. Wer weiter denkt, kann häufig mehr ­erreichen. Wer neugierig und offen ist, für neue Erfahrungen und Erkenntnisse, ist bereit, sich überraschen zu lassen, zu staunen, zu lernen. Neugier trainiert Flexibilität und Anpassungsfähigkeit. Die hoch digitalisierte Welt von morgen braucht mehr denn je neugierige Menschen und Entwickler. Forschungsgeister, die das Gegebene infrage stellen und Neues erschaffen, indem sie nachfragen und weiterforschen – auch interdisziplinär und über den eigenen Fachbereich hinaus (Glaser 2017). Fehler machen und kalkulierbare Risiken eingehen Eine erfolgreiche digitale Organisation macht Fehler. Und das im besten Fall schnell. Sie verschwendet keine oder kaum Ressourcen darauf, Misserfolge oder nicht erwartungsfonforme Ergebnisse zurechtzubiegen oder zu rechtfertigen (Diehl 2018). „Erfolgreich scheiternde“ Organisationen hinterfragen oder stoppen Projekte  früher, die nicht zielkonform laufen oder mit hoher Wahrscheinlichkeit zu keinem angestrebten Ergebnis führen. Ganz gleich, wie viele Mitarbeiter bereits involviert waren und welche Kosten entstanden sind. Bei einem, meiner Kunden fiel im Rahmen der Strategiearbeit der Satz: „Wir tolerieren Fehler – solange nicht das ganze Haus abbrennt“. Der Vorstandsvorsitzende brachte damit seinen Mitarbeitern eine hohe Fehlertoleranz zum Ausdruck und schränkte diese gleichzeitig ein: Fehler sollten in keinem Fall zu erheblichen Nachteilen für die Organisation führen. Es ist niemandem damit gedient, wenn Unternehmen durch riskante Digitalisierungsmanöver in eine Schieflage geraten. Ein gangbarer Weg ist, kalkulierte Risiken einzugehen, um die Tragfähigkeit neuer Digitalisierungsoptionen auszuloten (Mehrtens 2018). Ein produktiver Umgang mit Fehlern ist eine wichtige Voraussetzung für erfolgreiche Teams im digitalen Wandel (Gaub 2017). Um eine offene Fehlerkultur im Unternehmen zu entwickeln, verweist Maximilian Gaub auf folgende Grundsätze: • • • •

Einfach mal machen lassen Vertrauen haben Schnelles Feedback aktiv einfordern Aktives Erleben von Irrtümern nach dem Motto „Wenn du alles unter Kontrolle hast, bist du zu langsam“ • Gemeinsam auf Fehler zurückblicken und offen darüber reden Werden Fehler akzeptiert und als Chance zum Lernen verstanden, bieten sie neue Erkenntnisgewinne, die für die Zukunft des Unternehmens hilfreich sein können (Brandes-­Visbeck 2018). Im Kontext von Fehlerkulturen ergänzt Christiane Brandes-Visbeck weiterführende Faktoren: • Akzeptanz des Unvollkommenen • Ehrlicher Umgang mit Fehlern erfordert Mut • Mehr gemeinsames Lernen ermöglichen

3.5  Digitale Transformationsumsetzung

107

• Fehler als Wegweiser für die Zukunft akzeptieren • Veränderungen sind immer dann notwendig, wenn zu viele Konflikte oder immer wieder dieselben Fehler entstehen

Ausprobieren und experimentieren Eine Kultur des Experimentierens kann Organisationen beflügeln, wenn sie von vielen vorgelebt wird. Dabei können Mitarbeiter jede neue Idee – sei es für eine Produktidee, eine Produktverbesserung, einen neuen Service, einen neuen Prozess, eine Erweiterung auf der Webseite, eine neue App, ein neues Geschäftsmodell oder eine neue Technologie – einfach mal ausprobieren. Vorausgesetzt, die Aufwände und Initialkosten bewegen sich innerhalb eines für die Organisation vertretbaren Rahmens. Dabei lassen die experimentierenden Mitarbeiter ihrer Kreativität freien Lauf. Nach und nach findet eine Verhaltensänderung im gesamten Unternehmen statt: vom Sachbearbeiter bis zum obersten Führungsteam. Ideen sammeln, Hypothesen aufstellen, die kritischsten Annahmen überprüfen, Prototypen entwickeln und im Markt ausprobieren, Erkenntnisse sammeln, die Ideen weiterentwickeln, verfeinern oder verwerfen. In diesem Kontext zählt: Eine Mitmachattitüde zu kreieren, die alle Mitarbeiter einschließt -von der sich möglichst viele Mitarbeiter in­ spiriert fühlen und in Bewegung bleiben. Nichtlineares Querdenken Unsere vom technologischen Fortschritt geprägte Geschäftswelt benötigt mehr denn je kreative Köpfe, die interdisziplinär und umfassend Zusammenhänge erkennen können, statt nur einem roten Faden zu folgen und von Prämisse zu Schlussfolgerung zu springen (Glaser 2017). Wir Menschen denken auf der einen Seite logisch, rational, analytisch, kontrolliert und strukturiert. Während die linke Gehirnhälfte dominant ist, arbeitet die rechte Seite des Gehirns intuitiv und ganzheitlich, einfallsreich, konzeptionell und emotional (Konrad 2017). Wenn Kreativität gefragt ist, schaffen wir neue neuronale Strukturen im Gehirn – wir denken nichtlinear. Dieses Denken beschreibt die Offenheit für eine nichtanalytische Wahrnehmung von Informationen. Wir setzen dieses Denken u. a. bei agilen Methoden ein und stellen dabei konventionelle Denkmuster ebenso infrage wie die dahinterliegenden Rahmenbedingungen. Zwar führt uns das nichtlineare Denken nicht zwangsläufig zu praktisch umsetzbaren Lösungen, dafür öffnet es uns Türen für ganz neue Sichtweisen. Beispielhafte Fragen zur digitalen Attitüde

1. Wie offen sind die Mitarbeiter für neue Technologien und Arbeitsmethoden? 2. Wie technologieaffin sind Ihre Mitarbeiter? 3. Wie unterstützen Sie das Ausprobieren und Vorantreiben von neuen Ideen und Experimenten? 4. Wie reagiert Ihre Organisation auf Scheitern und was sind die Schritte nach dem Scheitern? 5. Wie gut gelingt es Ihnen als Organisation, eine Akzeptanz des Unvollkommenen zu etablieren?

108

3  Mit 30 Prinzipien zum Digital Champion

3.5.6 Digitale Zusammenarbeit Jahrtausendelang bestimmte der persönliche Austausch, jahrhundertelang der verschriftlichte. Mit dem Internet kam die E-Mail. Und diese löste die Brief- und Faxkommunikation ab. Heute ersetzen digitale Arbeits- und Kommunikationswerkzeuge zunehmend die E-Mail, das Telefon und den persönlichen Austausch in Meetings. Angetrieben von Digitaltechnologien, nimmt die kollaborative Arbeit in virtuellen Teams zu. Hinzu kommt der Wunsch der bereits heute den Arbeitsmarkt dominierenden Digital Natives nach digital vernetzter Zusammenarbeit (Eggers und Hollmann 2018). Um die bereichsübergreifende Zusammenarbeit zu fördern, setzen Unternehmen auf digitale Tools. Die Idee dahinter: die Kolleginnen und Kollegen vernetzen sich untereinander, tauschen sich häufiger aus, steuern ihre Projekte über die  eingesetzen Tools und erhalten einen effizienten Zugang zu projektrelevanten oder unternehmensbezogenen Informationen. So kommunizieren sie schneller und effizienter – statt wie bisher üblich – Tausende von E-Mails zu versenden. Die Kollegen von Campana Schott beschrieben 2019 acht verschiedene Social-­ Collaboration-­Szenarien vor dem Hintergrund kollaborativer Zusammenarbeit und Kommunikation: 1. Informationssuche 2. Suche nach Experten 3. Austausch in Interessengruppen 4. Kommunikation und Abstimmung im Team 5. Austausch von Dokumenten 6. Anträge und Formulare 7. Firmeninterne Informationen und News 8. Mobiles Arbeiten Dabei waren die wesentlichen Ziele für Unternehmen, kollaborative Softwaretools einzuführen: Verbesserung der Unternehmenskultur, Kosteneinsparung, Innovationsförderung, Steigerung von Kundenzufriedenheit und die Erhöhung der Mitarbeitereinbindung. Von wenig vernetzter zu vernetzter Kommunikation Sind Mitarbeiter noch wenig oder gar nicht untereinander vernetzt, bremst dies Informationsflüsse und Kommunikationswege in der Organisation aus, da durch ineffiziente Kommunikation Doppelarbeiten und Insellösungen entstehen. Auch brauchen Informationen länger, bis sie irgendwann an der richtigen Stelle ankommen. Sind die Mitarbeiter dagegen multilateral vernetzt, gelangen Bedarfsträger schneller zum richtigen Ansprechpartner oder zur gewünschten Zielinformation. Impulse und Fragen lassen sich effizienter platzieren und Probleme schneller lösen. Kollaborative Arbeitswerkzeuge im Überblick Mit einfach bedienbaren, performanten Social-Collaboration-Werkzeugen können Mitarbeiter gemeinsam an gleichen Dokumenten arbeiten, bestimmte Projektinformationen an

3.5  Digitale Transformationsumsetzung

109

einem zentralen Ort bündeln, sich zu laufenden Projekten untereinander austauschen – auch über Standortgrenzen hinweg. Mit steigendem Nutzungsgrad solcher Werkzeuge steigt nachweislich die Arbeitseffizienz. Ist das Toolportfolio homogen und aus einem Guss, wirkt sich dies ebenfalls effizienzsteigernd aus. Einen Überblick zu marktgängigen kollaborativen Arbeitswerkzeugen, die sich in ihren Funktionen teilweise überschneiden, zeigt die Tab. 3.10. Einige Tools sind spitz aufgestellt mit klarem Fokus. Andere setzen auf einen breiteren Funktionsumfang, um virtuelle Zusammenarbeit und Kommunikation zu fördern. Tab. 3.10  Schwerpunkte und Anbieterübersicht bei Social-Collaboration-Tools Fokus Kurzbeschreibung Kollaboratives Schreiben Gemeinsame Bearbeitung von Dokumenten

Tools Google Docs, G-Suite, Zoho Docs, Office 365, Adobe Acrobat Dropbox, WeTransfer, Google Drive, Microsoft OneDrive, Ge.tt, Box, Microsoft OneNote, Google Notizen, Wunderlist, Evernote MindMeister, bubbl.us, Mind42 Atlassian Confluence, Microsoft Sharepoint, Nuclino, Stackfield

Dateiablage und -austausch

Ablegen, Abrufen und Weiterleiten von Dokumenten, Audio-, Videodateien oder Notizen

Mindmapping

Gemeinsame Erstellung und Nutzung von Mindmaps Neuigkeiten, Zugang zu Unternehmensinformationen und abgelegenten Dokumenten, interne Kommunikation Planung, Kontrolle und Steuerung von Trello, Pinnery, Meistertask, Projekten und Aufgaben Microsoft Planner, Zoho Projects, Basecamp, Projectplace, Atlassian Jira, Monday, Asana, Wrike Virtuelle Teamkommunikation, Chats, Slack, Yammer, BeeKeeper, Dokumentenaustausch oder Jive, Doodle Terminfindung Durchführung von Konferenzen an Skype for Business, WebEx verschiedenen Standorten Meetings, iMeet, GoToMeeting, Google Hangouts Remote-Überwachung/-Support, Teamviewer, Anydesk, Aufzeichnen von Sitzungen Ammyy Admin, Mikogo, UltraVNC Vielzahl von kollaborativen Team-­ Salesforce Chatter, Microsoft Features auf einer Plattform Teams, Workplace bei Facebook, Google G-Suite, Bitrix 24 (kein Leerzeichen zwischen Bitrix und 24), IBM Connections

Social Intranet und Enterprise Wiki

Projektsteuerung und Aufgabenmanagement

Kommunikation und virtuelle Zusammenarbeit Videokonferenz

Fernzugriff und Fernsupport Integrierte Social-­ Collaboration-­ Plattformen

110

3  Mit 30 Prinzipien zum Digital Champion

Gezielte Unterstützung und Sinnvermittlung beim Einsatz von Tools Kollaborative Arbeitswerkzeuge sind keine Selbstläufer. Der teilweise hohen Funktionskomplexität geschuldet, fällt ihre Nutzung nicht automatisch allen Mitarbeitern gleich leicht. Konkret bedeutet dies, dass sich manche Mitarbeiter, die nicht mit Digitaltechnologien aufgewachsen sind, mit der Nutzung der neuen Tools überfordert fühlen. Diese Kolleginnen und Kollegen brauchen gezielte Unterstützung darin, wie sie die Werkzeuge für sich gewinnbringend einsetzen können. Darüber hinaus spielt das Thema Sinnhaftigkeit eine besondere Rolle. Häufig ist der Sinn hinter der Umstellung der Kommunikation und Zusammenarbeit auf Digitaltechnologie unklar geblieben. „Was ist denn nun besser daran, heute über zehn Kanäle zu kommunizieren anstatt wie früher über Telefon, E-Mail und den persönlichen Austausch?“, wurde ich von einer Führungskraft gefragt, die keinen richtigen Sinn hinter Toolarbeit erkennen konnte. Die Antwort liegt auf der Hand: Informationen lassen sich schneller, einfacher und einheitlicher ablegen, abrufen und weiterleiten. Die bereichsübergreifende Zusammenarbeit in Teams baut Silodenken ab und erhöht bei breiter Toolnutzung die Transparenz im Unternehmen. Dessen ungeachtet läuft die unternehmensinterne Kommunikation natürlich weiterhin über die bewährten, klassischen Wege. Nur nicht mehr so häufig wie früher und durchaus gezielter. Haben sich die Mitarbeiter an die digitalisierte Form der Zusammenarbeit erst einmal gewöhnt und greifen sie gemeinsam auf dieselben Daten und dasselbe Wissen zu, verbessert sich ihr Umgang mit Information und die Kommunikation untereinander. Wenn Mitarbeiter darüber Bescheid wissen, mit welchen Themen sich ihre Kollegen aktuell beschäftigen, wer im Unternehmen über welche Spezialkenntnisse, Fähigkeiten und Beziehungsnetzwerke verfügt und was die neuen Anforderungen in einem gemeinsam vorangetriebenen Projekt sind, wirkt sich dies vorteilhaft aus. Auch wenn es erfahrungsgemäß immer eine gewisse Zeit dauert, bis die neuen Tools im Unternehmen nach ihrer Einführung Akzeptanz erfahren und in der Breite der Organisation ankommen, machen sich nach und nach die Vorteile der verbesserten Kommunikation und vernetzten ­Kollaboration bemerkbar. Die Praxis zeigt: Gehen Führungskräfte bei der Nutzung der digitalen Tools mit gutem Beispiel voran und bespielen die Tools selbst sichtbar aktiv, steigt die unternehmensweite Akzeptanz der Kommunikationsinstrumente enorm.

3.5  Digitale Transformationsumsetzung



Chefs Leuchttürme“

als

„Tool-

„Digitale Kommunikations- und Kollaborationswerkzeuge sind weder Selbstzweck noch Selbstläufer. Entscheidend ist, dass die Anwendungsvorteile im Tagesgeschäft sichtbar und von Mitarbeitern verstanden werden. Setzt ein Großteil der Führungskräfte die Tools selbst ein, steigt die Akzeptanz, Nutzungshäufigkeit und -intensität wesentlich schneller.“

111

112

3  Mit 30 Prinzipien zum Digital Champion

Moderne, integrierte Kommunikation erfolgt klassisch UND toolbasiert Führen Unternehmen kollaborative Software ein, kommunizieren sie fortan nicht ausschließlich digital. Im Gegenteil: Erlebbarer Wandel profitiert auch erheblich von altbewährten persönlichen Kontakten, Netzwerken und räumlicher Nähe (Zabel und Schmitz 2019). Kommunikationsentscheidende Aspekte der klassischen Kommunikation wie Gestik, Mimik, Augenkontakt oder Stimmlage fallen in der digitalen Welt weitgehend weg – digitale Kommunikation vermittelt meist nur Inhalte. Vor diesem Hintergrund ist die He­ rausforderung, klassische und digitale Kommunikation zu integrieren, alle Beteiligten zur Nutzung der neuen Tools zu motivieren und beide Welten sinnvoll unter einen Hut zu bringen. Die typischen Vor- und Nachteile beim Einsatz von kollaborativen Arbeitswerkzeugen zeigt Tab. 3.11 im Überblick. Offene, flexible und mobile Arbeitsplätze Eine moderne, digitale Zusammenarbeit zeigt sich in offenen Bürowelten, die sowohl Kooperation als auch Rückzug ermöglichen und projektbezogenes Arbeiten auch außerhalb von Konferenzräumen unterstützen. Sofalandschaften statt Drehstühle, Designklassiker, die Einfachheit ausstrahlen oder optische „Aufreger“ als „paradoxe Interventionen“ gewohnter Denkstrukturen im neuen Design können Teil einer solchen Architektur sein (Wachtel, Etzel 2019). Das klassische Büro als Statussymbol, bei dem man die Macht der Führungskraft an der Anzahl der zur Verfügung stehenden Quadratmeter, Fenster oder Höhe der Dienstpflanzen ablesen kann, hat längst ausgedient. Ebenfalls sind die neuen Bürowelten hierarchiearm (Zabel und Schmitz 2019). Wenn Mitarbeiter orts- und zeitunabhängig zusammenarbeiten können, spart dies Zeit und Ressourcen ein. Folglich nimmt die Zahl der Beschäftigten zu, die mit Rechner, Tab. 3.11  Vor- und Nachteile beim Einsatz digitaler Collaboration-Arbeitswerkzeuge Vorteile Tooleinsatz „Breaking down the silos“: Hürden bei bereichsund standortübergreifender Zusammenarbeit sinken – die Tools bieten Teams die Möglichkeit, auf demselben Informationsstand zu sein.

Nachteile Tooleinsatz Die neuen Werkzeuge spalten die Belegschaft: Digitalaffine Mitarbeiter können gar nicht genug von ihnen haben – erfahrene Kollegen möchten oder können mit ihnen nicht viel anfangen. Die Relevanz kommunizierter Informationen Transparenter Einblick, was im Unternehmen gerade passiert und an welchen Projekten andere kann abnehmen, wenn die Belegschaft überwiegend Belangloses kommuniziert und Kollegen derzeit arbeiten – viele bislang die Identifikation von wesentlichen unbekannte Kollegen erhalten ein Gesicht. Informationen erschwert wird. Informationen lassen sich einfacher und schneller Dass sich hinter der Information auch abrufen und miteinander austauschen. Menschen befinden, wird gelegentlich übersehen. Persönliche Beziehungen können unter der Der Umgang untereinander wird offener und digitalisierten und damit teilweise informeller. Hürden, bestimmte Kollegen unpersönlichen Kommunikation leiden. anzusprechen, sinken. Probleme lassen sich direkt ansprechen und lösen.

3.5  Digitale Transformationsumsetzung

113

Smartphone und in der Cloud arbeiten können – und dennoch scheint noch deutlich Luft nach oben zu sein. Auch wenn laut BITKOM 2017 jedes dritte deutsche Unternehmen das Arbeiten im Homeoffice anbot, setzten gemäß D21-Digital-Index von 2018/2019 nur 16 % der Befragten bei ihrer Tätigkeit auf Telearbeit, Homeoffice oder mobiles Arbeiten. Die restlichen Befragten gaben an, dass dies in ihrem Berufsfeld nicht möglich sei, sie es noch nicht wollten oder es in ihrem Unternehmen nicht angeboten wurde. Beispielhafte Fragestellungen im Kontext von digitaler Kollaboration

1. Welche digitalen Tools setzen Sie unternehmensweit ein, um die Kommunikation und Kollaboration zu fördern? 2. Wie viel Prozent Ihrer Belegschaft nutzt die digitalen Tools aktiv (mindestens einmal pro Woche)? 3. Welche Maßnahmen ergreifen Sie intern, um Akzeptanz und Nutzung der eingesetzten Tools zu verbessern? 4. Werden wichtige Projekte und neue Ideen innerhalb oder außerhalb von Abteilungsgrenzen umgesetzt? 5. Wie hat sich die Transparenz im Unternehmen durch die vernetze, digitale Zusammenarbeit verändert?

3.5.7 Digitale Kompetenzen Da neu erworbenes Wissen in der heutigen Zeit immer schneller veraltet, sind Unternehmen mehr denn je darauf angewiesen, dass ihre Mitarbeiter kontinuierlich lernen und sich mit dem aktuellen Stand der Technologien auseinandersetzen. Der Einsatz von Digitaltechnologie setzt neue Kompetenzen voraus, die vor einigen Jahren weniger bekannt oder noch ganz unbekannt waren. Weil auch Bildungseinrichtungen noch nicht auf die umwälzenden Veränderungen angemessen reagieren konnten, liegt es an den Unternehmen, Mittel und Wege zu finden, wie sie neue Fähigkeiten vermitteln, ihre Mitarbeiter entsprechend aus- und weiterbilden, um in wichtigen Kompetenzbereichen Qualifikationslücken zu schließen. Die Anforderungen an Mitarbeiterkompetenzen verändern sich über sämtliche Wertschöpfungsstufen hinweg. Aufgaben und Prozesse werden durch die Digitalisierung agiler und datengetriebener (Hammermann und Stettes 2016). An die Stelle von prozessgetriebener Ablaufoptimierung rückt ein projektgetriebener, nicht mehr endender Veränderungsprozess. Mix aus erfahrenen Mitarbeitern und Talenten in neuen Berufsbildern Beim Wandel zur digitalkompetenten Organisation stehen die Menschen nach wie vor im Zentrum. Es gilt, alle veränderungsbereiten Kolleginnen und Kollegen im Unternehmen mitzunehmen. Diese Aufgabe obliegt vorrangig den Führungskräften im Unternehmen. Idealerweise ist in jedem Team oder zumindest in jeder Abteilung eine Person verfügbar, die „digital“ versteht und als dezentrale Anlaufstelle für digitalbezogene Herausforderungen angesprochen werden kann. Neben der Qualifizierung der bestehenden Mitarbeiter für

114

3  Mit 30 Prinzipien zum Digital Champion

die neuen Transformationsanforderungen benötigen Unternehmen darüber hinaus neue digitale Talente in neuen Funktionen. Diese neuen Kompetenzträger helfen dabei, das bestehende Geschäft noch schneller zu digitalisieren und Ideen für neue datenbasierte, intelligente Geschäftsmodelle zur Lösung spannender Geschäftsfragen zu entwickeln. Denn wer heutzutage in der Lage ist, digitale Datenströme richtig zu interpretieren und datenbasiert zu agieren, trägt maßgeblich zur Optimierung des digitalen operativen Geschäfts und zur Generierung neuer Erlösströme bei. In den kommenden Jahren wird die Nachfrage nach ganz neuen Berufsbildern immer weiter steigen. Welche bereits heute und in jedem Fall perspektivisch eine Rolle spielen können, zeigt die Tab. 3.12.

Tab. 3.12  Sechzehn exemplarisch gewählte, aussichtsreiche Berufsbilder der Zukunft 1

Funktion IT-Spezialist

2

Cybersecurity Manager

3

Data Scientist

4

Data Analyst

5

Data Engineer

Beispielhafte Aufgaben Berät IT-Bereich bei herausfordernden Problemen Gibt Ratschläge zur Verbesserung von Arbeitsabläufen oder Kundenzufriedenheit Überprüft und koordiniert IT-Infrastruktur und -Entwicklung Migriert Bestandsdaten in bestehende Infrastruktur Integriert Dienste und Endgeräte Unterstützt den laufenden Hard- und Softwarebetrieb Konzipiert die IT-Sicherheitsarchitektur Entwickelt Richtlinien für die Sicherheit von IT-Lösungen und IT-Netzen Bewertet potenzielle IT- Risiken Führt IT-Sicherheits- und Penetrationstests durch Sammelt, analysiert und interpretiert große komplexe Datensätze Wendet komplexere statistische Methoden an Bereitet Daten visuell auf Etabliert Verfahren für die Verarbeitung von großen Datenmengen, um Entscheidungen durch Daten zu unterstützen Trainiert KI-Modelle und prüft diese fortlaufend auf Passgenauigkeit und Richtigkeit Führt Datenanalysen in unterschiedlichen Quellsystemen durch Bewertet die Aussagekraft von Daten im Hinblick auf Geschäftsnutzen Erkennt relevante Muster und Auffälligkeiten in Datenströmen Führt multiple Datenquellen und -modelle zusammen Entwickelt bestehende Analyse-, Reporting- und Steuerungssysteme weiter Überwacht die Hard- und Softwareinfrastruktur Kümmert sich um Prozesse rund um Generierung, Speicherung, Aufbereitung, Pflege und Anreicherung von Daten Beherrscht verteilte Systeme und Datenflüsse sowie Extract-­ Transform-­Load-Prozesse (ETL) zur Vereinigung von unterschiedlichen Datenquellen in einer Zieldatenbank Konzipiert und setzt Datenintegrationsstrecken (Data Pipelines) um Programmiert in Hochsprachen wie Phython, Scala oder Java (Fortsetzung)

3.5  Digitale Transformationsumsetzung

115

Tab. 3.12 (Fortsetzung) 6

Funktion Data Strategist

7

AI/Machine Learning Developer

8

AI/Machine Learning Engineer

9

AI/Deep Learning Expert

10 Computer Vision Engineer

11 Robotic Engineer

Beispielhafte Aufgaben Konzipiert Datenstrategien Gibt die Leitlinien für den Umgang mit komplexen Daten vor Entwickelt Data Journeys Generiert Datenwerte Identifiziert rechtliche, technische oder ethische Barrieren und entwickelt Lösungsvorschläge Entwickelt Ideen für datengetriebene Geschäftsmodelle oder Datenmonetarisierung Wendet Methoden und Tools zur Wissensextraktion aus Daten an Arbeitet eng mit Data Scientists, Data Engineers und Fachbereichen zusammen Entwickelt Prototypen, um zu überprüfen, wie stark identifizierte Potenziale ausgeschöpft werden können Testet und integriert am Markt verfügbare KI-Lösungen Entwickelt und integriert eigene KI-basierte Softwarelösungen Analysiert Algorithmen, die zur Lösung von Problemen verwendet werden können Klassifiziert Algorithmen nach ihrer Erfolgswahrscheinlichkeit Trainiert Algorithmen unter kontrollierten Rahmenbedingungen Verhindert Überraschungen durch verzerrende Einflussfaktoren oder potenzielle Fehlerquellen Überprüft Ergebnisse und Entscheidungen der Algorithmen mit Plausibilitätsbetrachtungen Überwacht Datenerfassungsprozesse Überprüft Datenqualität und bereinigt Daten Designt, trainiert und entwickelt schnelle, präzise und skalierbare tiefe neuronale Netzwerke bzw. Deep-Learning-Algorithmen, die in großen Datenumgebungen performant sind Implementiert Natural Language Processing, Computer Vision und weitere Deep-Learning-Modelle Validiert und verbessert die Genauigkeit der Algorithmen Entwickelt und optimiert Werkzeuge der digitalen Bildverarbeitung Verbessert die Genauigkeit der Erkennung von Bild- oder Videoanalysealgorithmen Erforscht neue Computer-Vision-Algorithmen und implementiert diese Entwickelt Visualisierungsanwendungen zur Multi-Objekt-Erkennung der nächsten Generation Analysiert und behebt komplexe Robotikprobleme Entwickelt, konfiguriert, testet und wartet kooperative Maschinen und Roboter Entwickelt Software und Prozesse zur Steuerung von automatisierten Robotersystemen Roboter-Benchmarking (Fortsetzung)

116

3  Mit 30 Prinzipien zum Digital Champion

Tab. 3.12 (Fortsetzung) Funktion 12 Manager gemischter Mensch-Roboter-­ Teams

13 Digital Business Developer

14 Business Intelligence Developer

15 Customer Experience Designer/Manager

16 Customer Success Manager

Beispielhafte Aufgaben Verbindet die Stärken von Robotern, KI-Software wie Rechenleistung oder Geschwindigkeit mit den Stärken der menschlichen Kollegen wie Empathie, Kreativität oder Vielseitigkeit Entwickelt Kommunikations- und Kollaborationssysteme für die synergistische Zusammenarbeit zwischen beiden Gruppen Stimmt als Schnittstellen-Manager zwischen Geschäftswelt und Digitaltechnologien die Geschäftsprozesse und Unternehmensziele mit Datenanalysen und Geschäftspotenzialen aufeinander ab Entwickelt neue Digitallösungen und begleitet Optimierungsmaßnahmen bei bestehenden Lösungen Erschließt digitale Marktpotenziale und Geschäftsmodelle Identifiziert Geschäftsmodelle zur Monetarisierung von Erkenntnissen aus der Analyse von (Maschinen-)Daten Verantwortet Design, Modellierung und Pflege komplexer Daten in Cloud-basierten Datenplattformen Entwickelt Verfahren und Prozesse zur systematischen Analyse des eigenen Unternehmens weiter Bewertet Kosten- und Erlösmodelle aus der Datenanalytik Entwickelt, validiert und optimiert Prototypen in Zusammenspiel mit IT und Fachbereichen Schafft positive Kundenerfahrungen entlang der Customer Journey Synchronisiert und optimiert Kundenerlebnisse über alle Touchpoints hinweg Evaluiert Kundenerwartungen und etabliert Kundenbedürfnisse als zentrale Anforderung an Konzeption, Entwicklung und Projektmanagement Entwickelt Konzepte zur Optimierung des Kundendialogs Sorgen dafür, dass sich Kunden direkt zu Beginn mit den Produkten wohlühlen Wertet Kundenfeedback aus und verhindert Kundenabwanderung Verwaltet und optimiert die Kommunikationsstrukturen zum Kunden hin Erkennt neue Trends bei Anfragen und entwickelt Lösungen zur Verbesserung von Kundenzufriedenheit und Kundenbindung

Neue, interaktive Workshop-Formate Da die Menge an verfügbarem Wissen exponentiell steigt und die Umfeldkomplexität und Verdichtung der Arbeit zunimmt, steht neben technischen Kompetenzen auch der Einsatz neuer Methoden bei digital transformierenden Unternehmen hoch im Kurs. In den letzten Jahren haben sich eine Vielzahl neuer Workshopverfahren herauskristallisiert, die im Rahmen von geplanten Veränderungsprozessen ihre Wirkung entfalten. Mit den innovativen und interaktiven Formaten können Unternehmen die unterschiedlichen Erfahrungen der Teilnehmer nutzen, erkenntnisreiche Austausche zu relevanten Fragestellungen initiieren oder in relativ kurzer Zeit kompakte, tragfähige Konzepte und Umsetzungspläne auf die Beine stellen.

3.5  Digitale Transformationsumsetzung

117

Interaktive Formate

• BarCamp: Locker organisierte „Unkonferenzen“, ohne vorab festgelegte Programme und Vorträge. Grundsätzlich haben alle Teilnehmer die Chance, sich selbst einzubringen, Themen zur Diskussion zu stellen, Gruppensessions anzubieten oder als Speaker aufzutreten. Der tatsächliche Ablauf entwickelt sich innerhalb der ersten Stunden, wenn alle späteren Sessions geplant und kurz vorgestellt werden. • FedEx-Day: Die Magie eines FedEx-Day zeigt sich in der verbindlichen Entwicklung eines auslieferbaren „Pakets“ mit greifbaren Ergebnissen, zu denen sich alle Teilnehmer verbindlich bekennen. So lassen sich ins Stocken geratene Initiativen oder neue Geschäftsideen vorantreiben. Am Ende des anspruchsvollen, eintägigen Workshops, bei denen mit Annahmen und Sprints gearbeitet wird, steht ein Paket in Form eines Strategieentwurfs, eines Prototyps, eines Konzepts oder eines Prozesses, das bis auf Weiteres Gültigkeit besitzt und vorerst nicht mehr infrage gestellt werden soll. • Marktplatz/Vernissage: Interaktive „Ausstellungen“ zur Wissensvermittlung, bei der im Vorfeld festgelegte Themen festgelegt und auf großflächigen Plakaten visualisiert werden. An den Marktplatzständen stellen die jeweiligen Referenten ihr spezielles Thema vor und beantworten Fragen aus dem wechselnden Publikum, das sich in kleine Gruppen unterteilt und sich frei zwischen Ständen bewegen kann. Über auf Klebezettel aufgeschriebene Ideen und Kommentare lassen sich die vorgestellten Themen anreichern. • Fishbowl: Ermöglicht Diskussionen in großen Gruppen, bei denen sich die Teilnehmer in Anlehnung an ein Goldfischglas im Kreis herum verteilen und die Diskussion einer kleineren Gruppe im Innenkreis beobachten. Der innere Teil der Gruppe diskutiert relevante Fragestellungen stellvertretend für die Gesamtgruppe. Die Teilnehmer im Innenkreis werden (temporär) durch Teilnehmer von außen ersetzt. Am Ende bespricht die gesamte Gruppe die Ergebnisse aus dem „Goldfischglas“. • Lego Serious Play®: Das Workshopformat verbindet die Vorzüge des haptischen Modellierens mit aus der Kindheit bekannten Legosteinen mit konkreten Herausforderungen des Unternehmens. Statt zu beobachten oder über etwas zu sprechen, bauen die Teilnehmer mit ihren eigenen Händen und Legosteinen innerhalb moderierter Teams neue Strategien oder Geschäftsideen auf, analysieren Konfliktsituationen oder entwickeln Lösungskonzepte auf spielerische Art. • Open Space: Im Fokus des Großgruppenformats mit bis zu 2000 Teilnehmern steht, in kurzer Zeit mit einer großen Zahl von Menschen, umfassende Themen lösungsorientiert voranzutreiben. Ohne Agenda und mit großer inhaltlicher Offenheit stellen Teilnehmer ihre komplexen, dringlichen oder auch persönlichen Fragen und bearbeiten ­Themen selbstorganisiert-gemeinschaftlich. So entsteht ein Themenmix, bei dem sich die Teilnehmer zu Gruppen zusammenschließen, gegenseitiges Verständnis schaffen und Energie für die Umsetzung der gemeinsam entwickelten Ideen freisetzen. • World-Café: Hier diskutieren wechselnde Kleingruppen relevante Fragestellungen an Stehtischen oder im Sitzen. Dabei entstehen in kurzer Zeit verwertbare Impulse und Ergebnisse. Nach jeder 15- bis 30-minütigen Session wechseln die Teilnehmer die Tische und diskutieren in neuer Zusammensetzung an neuen Tischen neue Fragen. Die

118

3  Mit 30 Prinzipien zum Digital Champion

einzige Konstante dabei, ist der Gastgeber. Dieser versteht sich darauf, Zwischenergebnisse miteinander zu verknüpfen und weiterzuentwickeln. Die Ergebnisse werden in Form von „Erlebnisgalerien“, beispielsweise auf Flipcharts, festgehalten und bewertet. So entstehen Dokumente, zu denen viele Köpfe etwas Sinnvolles beitragen haben. 21st Century Skills Auch wenn die Untersuchung der „Future Work Skills 2020“ in Zusammenarbeit mit der University of Phoenix Research Institute aus dem Jahr 2011 schon eine Dekade zurückliegt, scheinen die „21st Century Skills“ (Davies et al. 2011) auch im kommenden Jahrzehnt von großer Bedeutung sein. In ihrer Studie beschrieben die Autoren die neuen, herausragenden Fähigkeiten dieses Jahrhunderts: • Computational Thinking: Ermöglicht, große Datenmengen in abstrakte Konzepte zu gießen und datenbasierte Logik zu verstehen und quantitativ zu argumentieren • Sence Making: Ermöglicht, von Computern nicht simulierbare Herausforderungen zu meistern, wie sinnstiftende Fähigkeiten oder kritisches Denken, um bestimmten Dingen tiefere Bedeutungen beizumessen, daraus Botschaften abzuleiten und neue Erkenntnisse zu generieren • Transdisciplinarity: Ermöglicht, komplexe Aufgabenstellungen transdisziplinär zu begreifen und als T-Shaped-Experte die Sprachen verschiedener Disziplinen zu sprechen • Design Mindset: Ermöglicht, verschiedene Arten des Denkens, die zur Aufgabenbearbeitung notwendig sind, zu erkennen und zu adaptieren und Arbeitsabläufe entsprechend von gewünschten Ergebnissen zu gestalten • Social Intelligence: Ermöglicht, eine Beurteilung von Gefühlen, Stimmungen und angemessenen Reaktionen bei kollaborativer Zusammenarbeit vor dem Hintergrund von räumlichen und kulturellen Differenzen • Cognitive Load Management: Ermöglicht, einen „cognitive overload“ abzufangen, die Wichtigkeit bestimmter Informationen zu erkennen und zu filtern sowie die eigene kognitive Leistungsfähigkeit mit entsprechenden Methoden und Techniken zu erhöhen • Novel and Adaptive Thinking: Ermöglicht, Lösungen und Antworten zu finden, die über Gewohntes und Regelkonformes hinausgehen und auf unerwartete Situationen adäquat zu reagieren

Beispielhafte Fragen zu digitalen Kompetenzen

1. Wie verteilt sind die Digitalkompetenzen in Ihrer Organisation – gibt es so etwas wie eine gemeinsame Skill-Basis? 2. Welche zukünftigen Kompetenzen spielen eine für Ihre Organisation vorrangige Rolle? 3. Welche Kompetenzen bauen Sie intern auf, welche Kompetenzen kaufen Sie extern befristet ein, welche neuen Kompetenzträger wollen Sie gewinnen?

3.5  Digitale Transformationsumsetzung

119

4. Wie groß ist der relative Anteil an digitalen Talenten zur gesamten Belegschaft heute und auf welches Niveau wollen Sie diesen Anteil perspektivisch heben? 5. Auf welche neuen Workshopformate und Methoden setzen Sie?

3.5.8 Digitale Prozesse Um auf die Markt- und Technologieveränderungen prozessual zu reagieren, digitalisieren Unternehmen ihre Prozesslandschaft. Manuelle analoge oder papierbasierte Geschäftsund Kundenprozesse werden durch digitale ersetzt. Dabei ist Digitalisierung von Workflows weit mehr als der Übergang zu papierlosen Abteilungen. Sie steht für eine digitale Form der Informations- und Datenverarbeitung, die eine  regelbasierte Automatisierung von bislang analogen Prozessstrecken und die Vernetzung von bestehenden Softwareanwendungen innerhalb der bestehenden IT-Landschaft möglich macht. Mithilfe einer  durchgängigen Digitalisierung der Prozesse und IT-Systemvernetzung beschleunigen Unternehmen ihre Informationsprozesse und Betriebsabläufe entlang der gesamten Wertschöpfungskette. Sie schließen zeitintensive Medienbrüche, vereinheitlichen und integrieren ihre Systeme, verbessern die Qualität von Arbeitsabläufen, vermindern Fehler durch manuelle Arbeitsschritte und reduzieren ihre operativen Betriebskosten. Ist die Prozesslandschaft erst einmal (weitgehend) digitalisiert, verfügen Unternehmen über Ende-zu-Ende-Geschäftsprozessketten und eine durchgängige Verzahnung mit den dazugehörenden Informationstechnologien. Unterscheidung von vier digitalen Prozesstypen Digitale Prozesse verwenden IT-Systeme mit ihren Speicherungs- und Verarbeitungskapazitäten, um den informationellen Anteil der Prozesse transparent zu machen, einzelne Prozessschritte zu vereinfachen und nach Möglichkeit zu automatisieren (Appelfäller und Feldmann 2018). Zur Kategorisierung von Prozessen und Bestimmung von digitalen ­Reifengraden bei der Prozesslandschaft schlagen die Professoren Wieland Appelfeller und Carsten Feldmann vier digitale Prozesstypen vor: • Digitalisierte Prozesse (zwischen analog und  volldigitalisiert): Aktivitäten in einem Prozess werden mit Unterstützung eines IT-Systems durchgeführt, bei dem Daten in digitaler Form vorliegen. Analoge Prozesse sind durchgehend papierbasiert. Keine Aktivität wird IT-seitig unterstützt. Digitale Prozesse unterscheiden sich hinsichtlich ihres Digitalisierungsgrads. Dieser gibt an, wie viel Prozent der Aktivitäten sich im Prozess mit IT-Unterstützung durchführen lassen. Bei volldigitalisierten Prozessen erfolgen alle Aktivitäten mit Unterstützung von IT und sämtliche Daten liegen digital vor. Bei teildigitalisierten Prozessen gilt dies nur für einige Aktivitäten und Daten. • Digital automatisierte Prozesse (zwischen manuell und voll automatisiert): Prozessautomatisierung ermöglicht eine Durchführung von Aktivitäten ohne Eingriff von Mitarbeitern durch ein IT-System. Sie setzt eine zumindest teilweise Digitalisierung von Prozessen voraus. Der digitale Automatisierungsgrad gibt an, wie viel Prozent der Prozessschritte

120

3  Mit 30 Prinzipien zum Digital Champion

sich automatisiert durchführen lassen. Bei vollautomatisierten Prozessen werden alle Schritte zu 100 % automatisiert durchgeführt. Dies setzt voraus, dass alle relevanten Daten digital vorliegen. Bei teilautomatisierten Prozessen gilt dies nur für einige Abfolgen. Manuelle Prozesse sind in keiner Aktivität automatisiert. Hier führt ein Mensch die Aktivität durch oder begleitet sie. Als Beispiel für Prozessautomatisierung dient die Robotic Process Automation (RPA), bei der Softwares zum Einsatz gelangen, die wie menschliche Anwender von IT-Systemen Daten über Benutzerschnittstellen eingeben. • Digital integrierte Prozesse (zwischen isoliert und voll integriert): Bei der digitalen Integration geht es um die Art der unterstützenden IT-Systeme. Sie setzt eine teilweise Prozessdigitalisierung voraus. Werden alle Prozessaktivitäten durch ein einheitliches, integriertes IT-System mit einer zentralen Datenbank unterstützt oder automatisiert durchgeführt, handelt es sich um einen vollintegrierten, digitalen Prozess mit einem digitalen Integrationsgrad von 100 %  – beispielsweise bei einem komplett durch ein ERP-, CRM-, SCM- oder PLM-System unterstützten Prozess. Ebenso liegen vollintegrierte digitale Prozesse vor, wenn unterschiedliche IT-Systeme zum Einsatz kommen, die für den erforderlichen Datenaustausch über IT-Schnittstellen verfügen. Bei teilintegrierten Prozessen werden nicht alle Aktivitäten IT-seitig unterstützt. Der digitale Integrationsgrad gibt hier an, wie viel Prozent aller Prozessaaktivitäten in einem integrierten System oder in über Schnittstellen verbundenen Systemen erfolgt. Werden die Prozessaktivitäten abwechselnd durch unterschiedliche, nicht miteinander vernetzte IT-Systeme unterstützt, liegt keine Integration der IT-Systeme vor. • Digital selbststeuernde, vernetzte Prozesse (zwischen fremdgesteuert und vollselbstgesteuert): Werden die Objekte der digitalen Transformation im weiteren Sinn in den Fokus gerückt, kommunizieren mit IT-Systemen vernetzte, digitale oder digitalisierte Produkte, Maschinen und Mitarbeiter untereinander. Selbststeuerung wird dann möglich, wenn Produkte durch eingebettete Systeme die Informationen für ihre Produktion dezentral erhalten und mit den Maschinen über eingebettete Systeme kommunizieren können. Der digitale Selbststeuerungsgrad liegt bei 100 %, wenn keine Fremdsteuerung oder zentrale Steuerung mehr erfolgt. Dabei steuern sich beispielsweise selbst produzierende Objekte komplett eigenständig durch Produktionsanlagen. Erfolgen nur einige Schritte selbststeuernd, handelt es sich um eine teilweise Selbststeuerung. Enthalten zu produzierende Objekte kein eingebettetes System, so kann keine Vernetzung und damit nur eine Fremdsteuerung erfolgen. Ein solcher fremdgesteuerter Prozess lässt sich auch vollautomatisch ohne Eingriff von Mitarbeitern durchführen, weist aber nicht dessen Flexibilität auf. Hier koordiniert ein übergeordnetes zentrales IT-System den gesamten Produktionsprozess, indem es die Maschinen und den gesamten Prozess steuert.

Digitale Prozesse zur Effizienzsteigerung Mittels  Prozessautomatisierung können  Unternehmen schneller und effizienter digital transformieren. Sie schafft die Basis für prozessbezogene Effizienzgewinne, denn Prozesse tragen direkt zur Wertschöpfung bei oder unterstützen diese. Durch logisch zusammenhängende Aktivitäten werden Inputs zu Outputs. Durch Prozessdigitalisierung lässt sich neben

3.5  Digitale Transformationsumsetzung

121

einer vereinfachten Leistungsmessung insbesondere eine Reduktion von bisher manuellen Arbeitsaufwänden und Abläufen erreichen – in Einzelfällen bis zu 100 %. Je tiefgehender sich Workflows und Prozesse digitalisieren lassen, desto bessere Kostenpositionen können Unternehmen realisieren. Dies gilt insbesondere für standardisierbare, repetitive Prozesse, die nicht zu komplex sind und keine starken Abhängigkeitsgebilde untereinander aufweisen. Das ist der Grund, warum kein Unternehmen Prozessdigitalisierung grundsätzlich infrage stellt. Denn sobald digitale Prozessverbesserungen und -vereinfachungen abgeschlossen wurden, lassen sich augenblicklich Effizienzgewinne messen und nachweisen. Mehr Zeit für Wesentliches Die Liste der Vorteile durch Prozessautomatisierung ist lang: Durch den Aufbau von digitalisierten, automatisierten Strukturen lassen sich Prozesskosten einsparen und reinvestieren und durch Digitalisierung freigewordene Kapazitäten stärkenbezogen umverteilen – in Unternehmensbereiche, wo sie für das Unternehmen oder Kunden Mehrwerte generieren. Mitarbeiter in der Marketingabteilung können sich auf bessere Kundenerlebnisse und höhere Kundenzufriedenheit konzentrieren. Der Vertrieb hat mehr Zeit, um die Qualität seiner Kundenkontakte zu verbessern und mehr Abschlüsse zu tätigen. Die Personalabteilung kann sich verstärkt auf Recruiting, Personalentwicklung oder stärkere Unterstützung der Geschäftsbereiche fokussieren. Und das Controlling kann administrative Fehler verringern sowie die Sicherheit beim Zahlenverkehr erhöhen. Jede Prozessdigitalisierung beginnt mit einer Prozessanalyse Ein gesamtheitlich digitalisiertes Geschäftsprozessmanagement ermöglicht eine schnelle, flexible und qualitätsgerechte Kundenauftragserfüllung. Zu diesem Zweck benötigen Unternehmen eine übergreifende prozessorientierte Organisationsstruktur, um die arbeitsteilig geschaffenen Abteilungsgrenzen mit den dabei entstehenden hierarchischen Schnittstellen und funktionalen Barrieren zu überwinden (Binner 2017). Einer reibungslosen und effizienten Digitalisierung von Betriebsabläufen sollte nach Möglichkeit eine ganzheitliche Analyse des Status quo vorausgehen. Dabei stellen die Prozessverantwortlichen fest, in welchen Bereichen sich durch Prozessverbesserungen positive Effekte erzielen lassen. Bei der Analyse sollten die bisherigen Prozesse möglichst präzise und mit neutralem Blick unter die Lupe genommen werden. Denn wird eine fehlerhafte Prozessstrecke automatisiert, läuft diese zwar schneller, nicht aber effizienter ab. Zur Vermeidung von Datensilos ist darüber hinaus eine gemeinsame Prozessentwicklung wichtig. Idealerweise sitzen alle involvierten Personen und Schnittstellenpartner aus den jeweiligen Unternehmensbereichen in einem Boot. So lassen sich die Ist-Prozesse in der Tiefe besser analysieren, diskutieren und die gewünschten Soll-Prozesse besser gestalten, um die bestehenden Abläufe zu optimieren und integrieren. Alternativ lassen sich ineffiziente Prozesse erneuern oder zumindest vereinfachen. Als Bezugspunkte fungieren modellierte und dokumentierte Ende-zu-Ende-Geschäftsprozesse, weil darin die Geschäftsregeln für die Ausführung aller definierten Aktivitäten festgelegt sind. Eine weitere Herausforderung besteht darin, die internen vorhandenen IT-Anwendungen mit internetbasierten IT-Informationssystemen so zu vernetzen, dass sich die reale Wertschöpfungskette möglichst vollständig durchdringen lässt (Binner 2017).

122

3  Mit 30 Prinzipien zum Digital Champion

Zehn Vorteile durch Digitalisierung von internen und externen Geschäftsprozessen

1. Wettbewerbsvorteile durch bessere Orientierung an Kundenbedürfnissen, bessere Kundenerlebnisse und schnellere Umsetzung von Kundenwünschen 2. Kostenreduktion durch Automatisierung 3. Verringerung von Prozessdurchlaufzeiten und Time-to-Market 4. Vereinheitlichung von IT-Systemen 5. Schnellere und systematisierte Datenerfassung und Datenverarbeitung im Hintergrund 6. Qualitätsverbesserung durch Automatisierung und Verbesserung von Arbeitsabläufen 7. Bessere horizontale Übersicht der gesamten Prozesslandschaft über alle Prozessebenen hinweg 8. Höhere vertikale Prozesstransparenz 9. Höhere Prozessagilität, um auf veränderte Umfeldveränderungen zu reagieren 10. Rechtssichere Belegung von Arbeitsabläufen bei Haftungsfragen

In fünf Schritten zur erfolgreichen Prozessautomatisierung Für eine Automatisierung bieten sich grundsätzlich diejenigen Prozessstrecken an, die am häufigsten im Unternehmen genutzt werden. Idealerweise sind diese einfach und intuitiv zu bedienen und mit angemessenem Aufwand in die IT-Struktur integrierbar, sodass die Systeme nahtlos und interoperabel untereinander kommunizieren können. Sind Unternehmen im Bereich Prozessautomatisierung noch nicht weit fortgeschritten, können sie mit lokalen Pilotprojekten beginnen, um erste Erfahrungen mit kleineren Prozessinitiativen zu sammeln – bevor sie sich komplexeren und umfassenderen Prozessen annähern und die fachliche mit der technischen Welt verzahnen. Sobald die richtigen Prozesse bei der vorgelagerten Prozessanalyse und -auswahl identifiziert wurden (Phase 1), kann die Prozessoptimierung und fachliche Prozessmodellierung beginnen (Phase 2). Dazu skizzieren und beschreiben die Fachbereiche bisher manuell durchgeführten Arbeitsschritte und Soll-Abläufe aus fachlicher Sicht. Anschließend folgt i. d. R. die IT-seitige Prozessmodellierung (Phase 3). Liegt ein IT-Prozessmodell vor, entwerfen die IT-Verantwortlichen ein technisches Lösungskonzept. Dieses dient als Basis für die Implementierung und das Testen der automatisierten Prozessabläufe (Phase  4). Verlaufen die Tests wie gewünscht, lässt sich der Prozess abschließend operativ in die bevorzugte IT-Umgebung integrieren (Phase 5). Prozessautomatisierung mit Softwarerobotern Mit dem Einsatz von Softwares im Bereich Robotic Process Automation (RPA) können Unternehmen einen Teil ihrer Ist-Prozesse rekonstruieren, visualisieren, standardisieren und anschließend optimieren. Dabei werden jenseits der IT-Kernsysteme neue Regeln für die Softwareroboter festgelegt und anschließend die Workflow-Ausführungen programmiert. Die Einsatzmöglichkeiten sind

3.5  Digitale Transformationsumsetzung

123

vielfältig: Die Softwareroboter können zum Beispiel Vorarbeiten leisten, um Mitarbeiter mit Informationen zu ersorgen. Sie können Mitarbeiter auch bei bestimmten Prozessschritten unterstützten oder alle Prozessschritte anstelle der Mitarbeiter ausführen. Dort, wo in der Vergangenheit IT-­ Systeme von Mitarbeiter bedient wurden, können Softwareroboter diese Bedienung übernehmen. Dies gilt insbesondere für einfache Anwendungsfälle, die sich häufig wiederholen und durch Geschäftsregeln gesteuert werden. Hier kommen Mitarbeiter nur noch in Ausnahmefällen, die vom Standard abweichen, zum Einsatz (Appelfäller und Feldmann 2018). Während traditionelle Workflow-­Automatisierung mit strukturierten Daten stattfindet und auf Datenintegration setzt, verfolgt RPA dagegen das Ziel, Aufgaben zu automatisieren; die im Zusammenspiel mit unstrukturierten Daten stehen. Dabei arbeiten die Softwareroboter auf der gleichen Ebene wie die mensch­ lichen  Endanwender. Allerdings werden  die Roboter nicht über codebasierte Anweisungen programmiert, sondern Schritt für Schritt über Demonstrationsschritte konfiguriert. Auf diese Weise sind die Roboter flexibler als codebasierte Software (Nominacher 2019). Eine ausführlichere Darstellung dieser Zukunftstechnologie findet sich im Abschn. 5.12.

Auf dem Weg zur Verbindung von realen und digitalen Prozesslandschaften Sind Prozesse in Unternehmen noch überwiegend manueller Natur und von Papier geprägt, lassen sich digitale, integrierte Abläufe häufig nicht durchgängig realisieren. Folglich stellt eine umfassende digitale Prozessinfrastruktur eine zentrale Voraussetzung für eine höhere Wettbewerbsfähigkeit, organisatorische Flexibilität und Reduzierung von Prozesskosten dar – und ist damit die Grundlage für automatisierte Prozesse. Maren Keller verweist auf eine Reihe von Punkten, die Unternehmen im Zuge ihrer Prozessdigitalisierung überprüfen können. Im ersten Schritt widmen sich Unternehmen den Prozessstrecken mit hohem Nutzen durch Digitalisierung, denn nicht alle Geschäftsprozesse bringen Unternehmen den gleichen Nutzen. Aus diesem Grund ist eine Priorisierung der Digitalisierungsabläufe unabdingbar (Keller 2017). Je unterschiedlicher Geschäftsprozesse konzipiert sind, desto aufwendiger ist das Prozessmanagement. Folglich benötigen Unternehmen für ihre digitalen Prozesse ein Steuerungs- und Regelungssystem. Weiterhin enden digitalisierte Prozess nicht an den Türen von Fachbereichen oder Sparten. Das bedeutet: Unternehmen richten ihren Blick nicht nur auf die originären Anforderungen, sondern gestalten ihre digitale Prozessstruktur gesamtheitlich, um andere Prozesse ohne allzu großen Aufwand integrierbar zu machen und ihre realen und digitalen Prozesslandschaften zu verzahnen. Mit Blick auf diese ganzheitlich-­ digitale Prozessgestaltung spielt nicht allein die viel zitierte ökonomische Perspektive durch Automatisierung die Hauptrolle. Auch personelle, kulturelle, ökologische oder Compliance-gerechte Punkte sind bedeutsam – ebenso, ob kollaborativen Tools bereits im Einsatz sind und die Organisation bereits agil zusammenarbeitet oder nicht. Ausblick KI-Transformation: Menschen oder Wettbewerbsfähigkeit – was wiegt schwerer? Im Mittelpunkt strategischer Managemententscheidungen wird im kommenden Jahrzehnt die Frage stehen, inwieweit die alten Automatisierungsgrenzen durch neue, lernfähige Technologien wie KI überwindbar sind und zugunsten der Technologien nach außen ver-

124

3  Mit 30 Prinzipien zum Digital Champion

schoben werden sollten. Diese Frage lässt sich weder einfach noch ohne ethische Grundsatzüberlegungen beantworten: • Wie viel Raum erhalten moralische Überlegungen bei der Weiterentwicklung der Unternehmensstrategie, wenn es darum geht, eine steigende Anzahl von Menschen durch intelligente Maschinen zu ersetzen, obwohl – oder je nach Sichtweise damit – das eigene Unternehmen (weiterhin) hochprofitabel arbeitet? • Was wiegt schwerer – Wettbewerbsfähigkeit oder Ethik – und welchen Bedeutungszuwachs erfährt diese im Kontext von beschleunigter Technologieentwicklung und wirtschaftlichen Überlegungen? • Treiben wir in unserem Unternehmen die Verschiebung von menschlicher zu maschineller Arbeitskraft ähnlich schnell und intensiv wie unsere Marktteilnehmer voran oder machen wir ökonomische Abstriche bzw. Abstriche bei Kundenerlebnissen, indem wir geringere Margen und Gewinne in Kauf nehmen und am Großteil der bisherigen Beschäftigten festhalten? • Wie lange wollen wir an unseren ureigenen Unternehmenswerten festhalten, bei dem unsere Mitarbeiter, unser Humankapital und  nach wie vor das herausragende Asset sind? Und welche zuversichtgebende, wertschätzende Signale senden wir in unsere Organisation hinein? • Wann überhaupt ist der richtige Zeitpunkt für eine massive, unternehmensintern sichtund spürbare „Umschichtung“ von Menschen zu Technologie? Und welche Führungskräfte wollen diesen historisch einzigartigen Wandel mit CoBots vorantreiben, nachdem die Maschinen bereits viele Routine- oder Optimierungsaufgaben schneller, günstiger, reibungsloser und qualitativ besser erledigen können als ihre menschlichen Kollegen? Diese Fragen werden zu den zentralen Fragen der 2020er-Jahre auf nahezu jeder Chefetage gehören, wenn die Effizienzvorteile durch intelligente Automatisierung nicht mehr wegdiskutiert werden konnten.

3.5  Digitale Transformationsumsetzung

125



Effizienz vs. Ethik

„Unternehmen werden sich unabhängig davon – ob sie KI als Disruption begrüßen oder als Dehumanisierung beklagen, die Frage stellen müssen, wie sie zukünftig die Arbeit zwischen Mensch und Maschine umverteilen.“

126

3  Mit 30 Prinzipien zum Digital Champion

Beispielhafte Fragen zu digitalen Prozessen

1. Auf welchem digitalen Reifegrad befinden sich Ihre Prozesse momentan? 2 . Wie standardisiert laufen die internen und externen Prozesse mit Ihren Geschäftspartnern (Kunden, Lieferanten, Distributoren) ab? 3. Welche Prozessschritte sind immer gleich, häufig wiederkehrend und wenig komplex und eignen sich deshalb vorrangig für eine Automatisierung? 4. Welche Prozesse sollten klassisch automatisiert werden, welche über RPA? 5. Wie agil ist die Prozesslandschaft Ihres Unternehmens aufgestellt, um im Fall von relevanten Umfeldveränderungen eine schnelle Anpassung zu gewährleisten?

3.5.9 Digitale Technologien und IT-Systeme Technologien und technologiegetriebene Innovationen bestimmen in großem Maß über die Zukunft von Unternehmen. Aus diesem Grund verschmelzen Geschäftsstrategien und Technologiestrategien immer mehr zu einer beide Welten verbindenden Strategie. Waren Softwareentwickler bislang für das Planen, Entwickeln und Testen von Software zuständig und IT Operations Manager  für Integration, Release-Management, Softwarebetrieb und Monitoring, verschwimmen die Grenzen zwischen beiden Bereichen. Heutzutage verbessern sog. DevOps die Softwarequalität und die Geschwindigkeit der Softwareentwicklung und -auslieferung sowie das Miteinander der beteiligten Teams. Die zukunftsgerichtete IT versteht zudem die Businessperspektive und richtet ihr täglichen Tun nach ihr aus. So wird sie zum Wegbereiter von künstlich intelligenten Lösungen, skalierbaren Plattformen, Produkten und Services von morgen. IT-Systeme und Technologien auf dem Prüfstand Neben der Überprüfung auf Integration der in Kap. 5 ausführlich beschriebenen 20 digitalen Zukunftstechnologien in das aktuelle Geschäftsmodell, geht jeder erfolgreichen Transformation eine effiziente IT-Landschaft zur  Unterstützung der  innerbetrieblichen Geschäftsprozesse und unternehmensübergreifenden Informationsaustausche voraus. Dazu gehört eine umfassende Analyse, Neubewertung und Modernisierung der bestehenden IT-Systeme wie Netzwerkarchitektur, Hardware, Eigenentwicklungen und zugekauften Anwendungen, Datenbeständen, IT-Sicherheit, IT-Services und der Art und Weise, wie Daten (in der Cloud) gespeichert, analysiert und ökonomisch genutzt werden (können). Unternehmen halten  mit einem zunehmend digitalen und wettbewerbsorientierten Markt Schritt, wenn sie nicht nur die bestehenden Systeme optimieren, sondern auch neue Anwendungen und Dienste entwickeln bzw. lizenzieren, die tiefere Einblicke in ihr bestehendes Geschäft, ihre Branche und ihre Kundenbeziehungen ermöglichen. Damit wird die IT-Abteilung von einer in der Vergangenheit tendenziell reaktiven, unflexiblen Organisationeinheit zu einer proaktiven und flexiblen, die schnell auf sich ändernde digitale Geschäftsanforderungen reagieren kann (Rouse 2018) und sich als Businesspartner der operativen Geschäftseinheiten versteht. Nach dem Umbau verfügt die IT über eine moderne Basisinfrastruktur, auf der sich sowohl automatisierte (Cloud-)Dienste als auch die An-

3.5  Digitale Transformationsumsetzung

127

wendungsbereitstellung beschleunigen lassen. Dazu zählt auch die automatisierte Bereitstellung und Nutzung von IT-Services. Transformation des IT-Betriebsmodells: Von der klassischen IT zur schnellen, agilen und sich fortlaufend anpassenden IT Die meisten Unternehmen sind nicht im digitalen Zeitalter entstanden und sind deshalb nicht in der Lage,  einfach und schnell  bestehende Legacy-Systeme abzubauen und die Altsysteme durch moderne Formen zu ersetzen. Solche Unternehmen setzen sich auf der einen Seite intensiv mit den bisher bewährten Altsystemen und IT-Anwendungen auseinander und prüfen, ob diese die Transformationsfähigkeit des Unternehmens noch optimal unterstützen. Auf der anderen Seite loten sie neue Wege zur Integration moderner Technologien aus und richten, falls erforderlich, die IT neu aus. Damit verschieben sie Budgets und Kapazitäten weg vom traditionellen IT-Betriebsmodell hin zu einem modern und kundenzentrisch aufgestellten IT-Bereich. Das Marktforschungsunternehmen Forrester veröffentlichte 2018 ein vierstufiges Modell für CIO und CTO zur Umsetzung von IT-Transformation. 1. Discover: Exploration von schnellen und vernetzten Zukunftstechnologien zur Steigerung des Unternehmenswerts 2. Plan: Analyse der bestehenden IT-Reife und Entwicklung einer Roadmap für eine kundenzentrierte IT-Transformation 3. Act: Aufbau einer technischen Organisation, die zur Exzellenz führt; Anpassung der IT-Governance zur Wertsteigerung mit End-to-End-Technologien, bei denen Kunden im Mittelpunkt der technischen Prozesse stehen; Aufbau von Technologieplattformen, die Agilität fördern,  Wachstum beschleunigen und nachhaltige Prozessinnovationen ermöglichen; Einsatz von Zukunftstechnologien bei Geschäftsstrategien 4. Optimize: Fortlaufende Überprüfung und Optimierung der IT Von Information Technologies zu Business Technologies Im Vordergrund sahen die Analysen das Ziel, die technologischen Grundlagen und Innovationen zu schaffen, die erforderlich sind, um neue Kunden zu gewinnen und bestehende besser zu bedienen und an das Unternehmen zu binden. Im Zentrum der IT-­Transformation sieht Forrester folglich die Kernfrage, wie sich der Kundennutzen steigern lässt. Ist diese zentrale Frage beantwortet, soll ein Business Case Aufschluss über Ziele, Kosten, Nutzen und Risiken geben. Aus diesem Grund spricht Forrester von „Business Technologies“. Da sich die einzelnen Phasen in ihrem Modell teilweise stark überlappen und sich nicht chronologisch abarbeiten lassen, sprechen sich die Experten für den Einsatz agiler Umsetzungsmethoden aus. Zudem sollten IT-Entscheider Fragestellungen nachgehen, welche IT-Funktionen sie in die Cloud migrieren und welche sie auslagern wollen. IT-Transformation als Daueraufgabe Nach der Anpassung ist vor der Anpassung – die Transformation der digitalen Systeme und Infrastrukturen lässt sich mit Blick auf typische IT-Funktionen wie Strategie, Führung, Res-

128

3  Mit 30 Prinzipien zum Digital Champion

sourcen, Architektur, Betrieb, Entwicklung, Auslieferung, Einkauf, Kundenbeziehungen, Innovation und Risikomanagement als Daueraufgabe ansehen. Im Vergleich zur klassischen IT-Organisationsform der Vergangenheit passt sich die neue IT-Organisation noch häufiger und kontinuierlicher an als bisher – ganz in Analogie zur Produktentwicklung, bei der Digitalprodukte auch niemals fertig, sondern Schritt für Schritt weiterentwickelt werden. Konkret bedeutet dies: Die IT-Führungskräfte orientieren sich an Kerngeschäft, Kundenerwartungen und Kennzahlen, messen dabei den Erfolg der digitalen Systemumgebungen, Prozesse und Strukturen und gewährleisten eine fortlaufende, iterative Optimierung der IT-Landschaft. IT-Organisation der zwei Geschwindigkeiten Wie lässt sich Neues in einem neuen Tempo entwickeln, ohne dass dabei die vorhandene IT im Weg ist? Wie lassen sich intelligente, produktive und gewinnbringende Betriebsabläufe durch die IT unterstützen? Können oder wollen IT-Verantwortliche ihre langjährig gewachsene IT-Systemstruktur aus guten Gründen weder durch angemessene Investition in eine moderne IT-Landschaft ersetzen noch per Knopfdruck auf Geschwindigkeit trimmen, bedarf es einer Kompromisslösung. In diesem Zusammenhang sprachen sich bereits vor Jahren die Kollegen von Gartner für eine bimodale IT und die Kollegen bei McKinsey für eine Two Speed Organisations aus. Letztere zeigten am Beispiel von Amazon, Google und Facebook, dass Kundenwünsche konsequent IT-seitig abgebildet werden und Kundenfeedback in den eigenen Entwicklungsprozess integriert ist. So lässt sich ein IT-Ansatz beschreiben, der digitale Kundenerlebnisse plant, statt sich losgelöst davon, über Anwendungen und IT-Komponenten Gedanken zu machen. Während ein Teil der IT-Mannschaft Freiraum für die Pflege, Instandhaltung und Weiterentwicklung der Systeme erhält, sucht der andere Teil nach Innovationsmöglichkeiten und unterstützt die Geschäftsbereiche bei deren Entwicklung und Implementierung. Eine erfolgreiche Two-Speed-IT-Organisation kann dann entstehen, wenn der zusätzliche, schnellere Teil der IT-Organisation kundenzentrisch konstruiert ist und sich an einer schnellen Erfüllung von Kundenwünschen orientiert und die gesamte IT-Organisation sich diesem Ziel unterordnet. Dabei gibt nicht die Technik die Geschwindigkeit vor, sondern die Wünsche der Kunden. Parallel dazu werden die Altsysteme schrittweise umgebaut. Allerdings nicht so, dass langsamere Altsysteme von heute auf morgen durch neuere ­ersetzt werden  – meist verlieren die Bestandssysteme im Lauf der Zeit automatisch an Relevanz. Und bis dahin bleiben sie im Transformationsprozess wichtige Komponenten für das Kerngeschäft. Ziehen dabei alle Beteiligten an einem Strang und verbinden sie Geschäftsfähigkeiten und IT-Services durchgängig miteinander, stellt der der Two-SpeedAnsatz eine richtungsweisende Option für die IT-Transformation dar. Hohe Anforderungen an IT-Sicherheit Die Anforderungen an die IT-Sicherheit sind gestiegen. Durch die Verzahnung der IT-­ Systeme über den gesamten Wertschöpfungsprozess hinweg brauchen Unternehmen ein hohes Maß an unmittelbarer Sicherheit auf unterschiedlichen Ebenen. Das Institut der deutschen Wirtschaft IW verweist diesbezüglich auf verschiedene Sicherheitsdimensionen (Demary et al. 2016).

3.5  Digitale Transformationsumsetzung

129

• IT-Sicherheit durch Virenscanner, Firewalls, Datenverschlüsselung, extern durchgeführte Penetration-Tests und Angriffserkennungssysteme mit regelmäßigen Updates • Organisatorische Sicherheit durch ausgewogene Zugriffsregelungen und Notfallmanagement – allerdings dürfen Zugriffsregelungen nicht zu restriktiv ausgelegt sein, sodass die Organisation sich dadurch gefesselt fühlt • Personelle Sicherheit über Mitarbeiterschulungen und eine Sicherheitskultur im Unternehmen • Sicherheitszertifizierungen, die bereits bei der Konzeption von intelligenten Produktionsanlagen berücksichtigt werden Um Unternehmensgrenzen zu überwinden, organisieren Unternehmen auch die IT-­Sicherheit zunehmend unternehmensübergreifend. Dabei ist das Setzen und Überwachen von einheitlichen Standards und Sicherheitslösungen häufig herausfordernd. Selbst dann, wenn sich die Anforderungen an Datensicherheit mit wenigen Zahlen ausdrücken lassen, nimmt die Komplexität von IT-Strukturen weiterhin zu. Dadurch gestaltet sich auch deren Absicherung schwieriger. Bei der Sicherung von Daten stehen Lösungen hoch im Kurs, mit denen sich der Spagat zwischen Legacy-Infrastrukturen – v. a. über die Zeit hinweg gewachsenen multigenerationalen Infrastrukturen – und agilen, teilweise tagesaktuell eingerichteten Anwendungen meistern lässt. So entsteht ein „Fuhrpark“ von IT-­Lösungen, digitalen Produkten und Plattformen bei gleichzeitiger Inanspruchnahme von Cloud-Diensten. „Cloud first“ bedeutet nicht automatisch „Cloud only“ Mit veränderten Geschäftsmodellen entwickeln sich auch die IT-Umgebungen weiter. Seit Beginn der 2010er-Jahre ist es populär, IT-Infrastrukturen in die Cloud zu bringen. Wenngleich immer mehr Unternehmen Cloud-Umgebungen nutzen, ist bislang ein vollständiges Abwandern der IT-Services in die Cloud ausgeblieben. So können z. B. vertrauliche Daten, Berechtigungen, geschäftskritische ERP-Anwendungen oder Legacy-Systeme mit selbstentwickelten Funktionen im eigenen Rechenzentrum verbleiben, während bestimmte Managementkomponenten für die Verwaltung von Benutzerumgebungen in der Cloud laufen. Ein flexibel gehandhabtes Modell reduziert für IT-Verantwortliche Komplexität. Updates und neue Managementfunktionen lassen sich automatisch vom Cloud-Service-­Anbieter einspielen. Gleichzeitig behalten die IT-Entscheider die Kontrolle über bestimmte Anwendungen, Daten und Benutzer und entscheiden, welcher Anwender Zugang zu welchen Ressourcen erhält und an welcher Stelle vertrauliche Daten gespeichert oder gesichert werden. Auch in den kommenden Jahren werden solche hybriden IT-Landschaften das bevorzugte Bereitstellungsmodell für Unternehmen darstellen  – unabhängig davon, ob sie Netzwerke, Speicher, Sicherheit oder App-Bereitstellung aus der Cloud nutzen wollen. Gleichzeitig wird die Anzahl der in unternehmenseigenen Räumlichkeiten betriebenen IT-­ Systeme weiter abnehmen. In ihrer Studie „Cloud Security 2019“ zeigte IDG Research, dass bereits 65 % der befragten Unternehmen Cloud-Services einsetzten; 17 % planten, Cloud-Dienste in den kommenden zwölf Monaten einzusetzen, und 11 % prüften den Cloud-Einsatz für sich. Lediglich für 8 % der Unternehmen kam die Cloud-Nutzung vorerst nicht infrage. Von den befragten Unternehmen, die Cloud-Dienste in Anspruch nah-

130

3  Mit 30 Prinzipien zum Digital Champion

men, setzten 65 % auf Private Clouds, 45 % auf Public Clouds und 20 % auf Multi-­Cloud-­ Umgebungen. Digital Technology Foresight zur frühzeitigen Veränderungswahrnehmung Technologien entwickeln sich seit Jahren rasanter denn je weiter. Was heute noch revolutionär erscheinen mag, wird schon in fünf oder spätestens zehn Jahren deutlich veraltet sein. Unternehmen, die den eigenen Wandel proaktiv gestalten, beobachten und evaluieren das digitaltechnologische Umfeld systematisch innerhalb festgelegter Suchfelder, um auf wichtige technologische Marktveränderungen noch früher als bisher zu reagieren. Dabei nehmen sie Diskontinuitäten, technologische Trends und relevante Veränderungen im Marktumfeld von Beginn an wahr. Erkennen die Unternehmen Anzeichen für ansteigende technologische Reife oder kommerzielle Nutzung einer Schlüssel- oder Schrittmachertechnologie, führen sie sog. Technology Deep-Dives durch, um sich intensiv mit Chancen und Einsatzmöglichen im Unternehmen auseinanderzusetzen und ihre Geschäftspotenziale auszuloten. Diesbezüglich gibt der Abschn. 3.6.6 (Antizipationsintelligenz) einen vertiefenden Einblick in strategische Frühaufklärung.

Beispielhafte Fragen zu IT-Systemen und Technologien

1. Wie modern ist Ihre aktuelle IT-Infrastruktur mit Blick auf Netze, Rechenzen­ tren, Server, Storage, Security? Und wie modern sind Ihre aktuellen IT-­ Applikationen mit Blick auf Daten und Prozesse in Ihrer IT-Umgebung? 2. Wie agil und anpassungsfähig schätzen Sie Ihre aktuelle IT-­Infrastruktur ein? 3. Wie gut funktioniert die Zusammenarbeit zwischen IT und Fachfunktionen? 4. Wie weit fortgeschritten sind Ihre Lösungen zur IT Security? 5. Welchen Stellenwert haben Cloud-Dienste? Verfügen Sie über ein Cloud-Delivery-Modell mit dem aus Ihrer Sicht  richtigen Mix aus Private Cloud, Public Cloud bzw. Multi-Cloud?

3.5.10 Digitale Daten und Datenwertschöpfung Eine weitere zentrale Säule jeder digitalen Transformationsarbeit stellt der Umgang mit Daten dar. Denn die für Unternehmen potenziell relevante Menge an Daten ist nicht nur in den letzten Jahren explosionsartig angestiegen. Vielmehr steigt sie weiterhin ununterbrochen weiter. Die Digitalisierung von Wertschöpfungsketten, Kundenbeziehungen, Maschinen, Robotern, Produkten und Services erzeugt unzählige Datenpunkte aus Sensordaten, Positionsdaten, Prozessdaten, Transaktionsdaten oder Interaktionsdaten. Auch im Social Web werden über Plattformen wie Xing, LinkedIn, Facebook, Instagram, Twitter oder Youtube sekündlich viele Millionen neuer Daten generiert. Unternehmen stehen deshalb vor der Herausforderung, zu den bisherigen vergleichsweise noch übersichtlichen, strukturierten Daten auch die neu hinzugekommenen, vielfach unstrukturierten Daten für sich verfügbar zu machen, zu verdichten und die richtigen Rückschlüsse zu ziehen (Appelfäller und Feldmann 2018).

3.5  Digitale Transformationsumsetzung

131

Der Weg zum datengetriebenen Unternehmen: vier Reifegrade Sind Unternehmen in ihrer digitalen Transformation schon weiter fortgeschritten, lässt sich dies in der Art und Weise, wie sie mit Daten umgehen, erkennen. Die Professoren Wieland Appelfeller und Carsten Feldmann unterscheiden hinsichtlich der Transformation von Daten vier Reifegrade. Stufe 1: Klassische Transaktionssysteme Traditionelle Transaktionssysteme wie ERP-, CRM-, SCM-Systeme sind darauf ausgerichtet, strukturierte Stamm-, Bewegungs- und Bestandsdaten zu verarbeiten und Geschäftsprozesse abzubilden. Durch ihre Ausrichtung auf einzelne Transaktionen bieten diese Systeme allerdings noch keine gute Basis für komplexe betriebswirtschaftliche Entscheidungen. Haben Unternehmen ihre relevanten Daten lediglich in Transaktionssystemen oder in abteilungsspezifischen Systemen gespeichert, führen mehrere und dazu kaum oder noch nicht über Schnittstellen verbundene Systeme in der Praxis zu inkonsistenten Datenstrukturen. Datenfelder werden uneinheitlich interpretiert und i. d. R. unvollständig gepflegt. Im Ergebnis verfügen Unternehmen über eine tendenziell verminderte Daten­ qualität. Datenauswertungen erfolgen im Rahmen von kleineren Analysen in den Transaktionssystemen selbst und beziehen sich dabei ausschließlich auf strukturierte Daten. Stufe 2: Klassische Transaktionssysteme + Dokumentenmanagementsystem + Data-Warehouse-System In der zweite Digitalisierungsstufe kommt neben den Transaktionssystemen ein Dokumentenmanagementsystem und Data-Warehouse-System mit seinen Teildatenbeständen in Form von sog. Data Marts zur Auswertung von Daten zum Einsatz. Die überwiegende Anzahl der Systeme sind über Schnittstellen verbunden. Es gibt einen definierten Pflegeprozess für die meisten Daten sowie eine präzise Beschreibung aller Datenfelder. Meist liegt ein großer Teil der Daten bereits digital vor. Daneben gibt es aber noch Daten in Papierform. Durch das Data-Warehouse-System sind die Unternehmen in der Lage, auch übergreifende Analysen über mehrere Transaktionssysteme hinweg durchzuführen. In diesem Fall sind die Auswertungen deskriptiver und diagnostischer Natur und wie in Stufe 1 noch auf strukturierte Daten begrenzt. Stufe 3: Klassische Transaktionssysteme + Dokumentenmanagementsystem + Data-Warehouse-System + Master-Data-Managementsystem In der nächsten Stufe lassen sich über ein zusätzlich eingesetztes Master-Data-Ma­ nagementsystem die Stammdaten harmonisieren. Die Systeme sind über Schnittstellen miteinander verbunden. Für alle Daten liegt ein klar definierter Datenmanagementprozess

132

3  Mit 30 Prinzipien zum Digital Champion

vor. Daher verfügen Unternehmen auf diesem Reifegradniveau i. d. R. über eine gute oder sehr gute Datenstruktur und Datenqualität. Viele Auswertungen können systemübergreifend im Data Warehouse erfolgen. Zusätzlich zu internen Daten verarbeiten die Unternehmen auch einige externe Daten – teilweise auch in unstrukturierter Form. Auswertungen erfolgen auf dieser Stufe z. T. bereits prädiktiv und ermöglichen Vorhersagen. Stufe 4: Klassische Transaktionssysteme + Dokumentenmanagementsystem + Autonomes Data-Warehouse-System + Master-Data-Managementsystem + Big Data Store Weisen Unternehmen einen noch höheren Reifegrad bei der Digitalisierung ihrer Daten auf, werten sie zusätzlich Big Data aus. Das bedeutet: Neben internen und strukturierten Daten verwerten sie auch im großen Umfang externe und unstrukturierte Daten  – mithilfe sog. Big-Data-Storage-Technologien. Big Data Storage macht die Speicherung und Sortierung von Big Data möglich, sodass die Daten von (künstlich intelligenten) Anwendungen und Diensten, die mit großen unstrukturierten Datenmengen arbeiten, leicht zugänglich und teilweise in Echtzeit verarbeitbar sind. Der Datenumfang überragt alle bisherigen Reifegradstufen. Waren es bisher überwiegend Datenvolumina zwischen Gigabytes und Terrabytes, können diese anwachsen bis auf ein Zettabyte – das sind 1.000.000.000 Terrabytes. Auf diesem Reifegradniveau gelangen alle bisher beschriebenen Datenanalysearten bis hin zu präskriptiven Analysen zur Anwendung, bei der Unternehmen auch Erkenntnisse für Optimierungsmaßnahmen in puncto Gewinnerzielung, operative Effizienz oder Kundenbindung erhalten. Klassifizierung von Daten Wenn Informationen noch in analoger Form vorliegen, werden diese im Zuge der Transformation zunächst digitalisiert und erfahren anschließend über ein IT-System eine erneute Transformation: sobald Unternehmen auf Basis von Daten neue Daten erzeugen. Digitale Daten lassen sich im Unternehmenskontext anhand einer Vielzahl von Kriterien klassifizieren, wie Tab. 3.13 zeigt. Unternehmen können eine Vielzahl von Anwendungen zur Datenklassifizierung nutzen. Für den Fall, dass IT-Entscheider die aufwendige, fehleranfällige, manuelle Da­ tenklassifizierung durch eine Klassifizierungssoftware ersetzen  wollen, stehen ihnen verschiedene Klassifizierungsmethoden zur Verfügung, die sich zudem miteinander kombinieren lassen – wie z. B. die metadatenbasierte, inhaltsbezogene oder Machine-­Learning-­ basierte Klassifizierung. Eine Klassifizierung nach Metadaten lässt sich schnell und automatisiert durchführen. Sie ist abhängig von der Qualität der Metadaten. Bei einer inhaltsbasierten Klassifizierung erhalten Unternehmen genauere Ergebnisse, weil die automatisierte Analyse Dateninhalte anhand von mehreren Parametern durchleuchtet. Bei der Datenzuweisung via Machine Learning trifft die Software Entscheidungen automatisch und gleicht dazu Test- und Trainingsdaten miteinander ab. Grundsätzlich gilt: Je weiter fortgeschritten Unternehmen bei ihrer Geschäftsprozess- und Kundendatendigitalisierung sind, desto wichtiger wird für sie ein professionelles Datenmanagement, das ihre

3.5  Digitale Transformationsumsetzung

133

Tab. 3.13  Übersicht zur Datenklassifizierung

7

Klassifizierung Datenerscheinungsform Datenerzeugungs- und Datenverarbeitungsgeschwindigkeit Datenmenge Datennutzen Datenposition (im Verwertungsprozess) Datenqualität (im Sinn von richtig, wahrhaftig, sinnhaft, aktuell, konsistent, vollständig) Datenstruktur

8

Datenvertraulichkeitsgrad

1 2 3 4 5 6

9 Datenverfügbarkeit und -gültigkeit 10 Datenverwendung 11 Datenverwendungszweck

12 Datenwert (monetär) 13 Datenzugriff

Ausprägungen Textdaten, Audiodaten, Videodaten In Echtzeit, hoch, mittel, niedrig Sehr hoch, hoch, mittel, gering Hoch, mittel, niedrig, nutzlos Inputdaten, Outputdaten Hoch, mittel, niedrig, qualitätslos

Strukturierte Daten mit vorgegebener Zeichenlänge oder Zeichenart wie Stammdaten Semistrukturierte Daten ohne strikte Formatierungsvorgaben Unstrukturierte Daten ohne Vorgaben wie formfreie Texte, Illustrationen, Bilder, Animationen oder Videos Daten mit geringer oder keiner Vertraulichkeit (eigener Punkt) Personenbezogene sensible Daten Vertrauliche Forschungs- und Entwicklungsdaten, die besonders zu schützen sind Befristet, unbefristet Lesen, hören, editieren, weiterleiten, löschen Archivierungspflichtige Daten, Stammdaten, Betriebsmitteldaten, Erzeugungsdaten, Personaldaten, Auftragsdaten, Produktdaten, Bewegungsdaten Hoch, mittel, niedrig, wertlos CEO, C-Level, weitere Managementebenen, Führungskraft, Fachbereich, keine Zugriffsbeschränkung

wertvollsten Informationen schützt und verwertbar macht. Eine konsequent und systematisch durchgeführte Datenqualifizierung schafft dafür gute Voraussetzungen (Zach 2017). Datenschutz ist wichtig, doch Datensicherheit ist noch wichtiger Datensicherheit und Datenschutz gehören zum Standard jedes Transformationsprozesses. Je häufiger und ausgiebiger Prozesse, Maschinen und Menschen miteinander über Daten kommunizieren, desto eher können diese Datenverwender von außen angegriffen werden. Der Abschn. 5.4. (Cyber Security) geht ausführlich darauf ein, wie Unternehmen versuchen, einen Diebstahl oder Missbrauch von Kundendaten, Mitarbeiterdaten, Geschäftsdaten, technisch-maschinellen Steuerungsdaten oder Innovations- und Entwicklungsdaten zu verhindern. Gleiches gilt für deren Sperrung, Störung, Manipulation oder Löschung (Gaycken und Hughes 2015).

134

3  Mit 30 Prinzipien zum Digital Champion

Die Forderung nach flexibleren Sicherungsstrukturen bei gleichzeitig zunehmender Komplexität der IT-Infrastrukturen bestimmt das Bild in Unternehmen. Der Anspruch nach de facto 0 % Datenverlust wächst genauso wie nach permanenter Datenverfügbarkeit, schneller Wiederherstellung von Daten im Desasterfall und Compliance-­Konformität. Darüber hinaus spielt auch die Einhaltung von Richtlinien der Datenschutzgrundverordnung (DGSVO) für Unternehmen eine steigende Rolle (Haubold und Billo 2019). Allerdings zeigte die 2019 veröffentlichte Studie des IT-Sicherheitsunternehmens TeamDrive, dass über 80 % der deutschen Wirtschaft die DGSVO bislang unzureichend oder mangelhaft umgesetzt haben. Die Studienautoren legten den Schluss nahe, dass deutsche Unternehmen die Absicherung ihrer IT-Infrastruktur gegen Angriffe von außen bislang deutlich wichtiger war als die gesetzeskonforme Einhaltung von Datenschutz. Letztere stellte für viele nur einen Aspekt neben weiteren Sicherheitsüberlegungen dar. Darüber hinaus sahen einige Unternehmen in den strengen Datenschutzbestimmungen die Ursache dafür, dass Innovationen ausgebremst werden. Warum eine hohe Datenqualität für Transformationserfolg wichtig ist Ein gutes Stammdaten- und Datenqualitätsmanagement ist eine ganz wesentliche Voraussetzung für ein erfolgreiches Datenmanagement und eine wertorientierte Datennutzung. Denn tatsächlich sind Unternehmensanwendungen nur so gut wie die Daten, mit denen sie arbeiten. Ganz gleich, ob es sich dabei um Kundendaten, Lieferantendaten, Produkt-, Serviceoder Produktionsdaten handelt. Eine hohe Datenqualität steht für hohe Aktualität, Konsistenz, Vollständigkeit und Richtigkeit von Daten. Ist diese nur eingeschränkt gegeben, führt die schlechtere Datenqualität zu Ressourcenverschwendung und vermeidbaren Prozesskosten. Beispielsweise, wenn falsche oder fehlende Daten zu fehlerhaften Bestellungen, Lagerbeständen, Rechnungen, Warenausgängen, Warenzustellungen, R ­ ückabwicklungen oder im Extremfall zu Kundenabwanderung führen (Appelfäller und Feldmann 2018). Das bedeutet: Eine schlechte Datenqualität geht Hand in Hand mit schlechten Kundenerfahrungen. Unternehmen, die die enorme Bedeutung von Datenqualität erkannt haben, setzen auf die Einhaltung von Data-Governance-Richtlinien. Dazu gehören einerseits eindeutig festgelegte Rollen und Verantwortlichkeiten und andererseits eingespielte Prozesse der Datenpflege. Hohe Datenqualität als entscheidender Faktor für künstliche Intelligenz Mit der Nutzung von KI steigt der Wertbeitrag von Daten  – vor allen Dingen dort, wo großen Datenmengen anfallen. Zusammen mit The Economist Intelligence Unit hat SAP im Jahr 2018 herausgefunden, dass Unternehmen, die auf maschinelles Lernen setzen, rund 48 % mehr Profitabilität erreichen als Unternehmen, die noch nicht mit der Nutzung von KI angefangen haben. Die Voraussetzung für die Generierung von positiven ökonomischen Effekten und Wertzuwachs ist ein professionelles, unternehmensweites Datenmanagement. Sind die Daten mangelhaft, lassen sich KI-Algorithmen nicht sinnvoll trainieren. Wollen Unternehmen ihre Algorithmen trainieren, benötigen sie eine vollständige, verlässliche und plausible Datenbasis. Mit einer hohen Datenqualität legen Datenverantwortliche folglich den Grundstein für perspektivische Information Excellence, um auch mithilfe von Daten Wettbewerbsvorteile herbeizuführen.

3.5  Digitale Transformationsumsetzung

135

Trends beim Datenmanagement Der in Abb. 3.4 dargestellte Trend Monitor von 2019 weist laut Dr. Carsten Bange, Geschäftsführer des Business Application Research Center, auf eine tiefgreifende Veränderung der Geschäftswelt hin. Im Vergleich zu den Vorjahren findet ein Wandel zu einer vermehrt datengetriebenen Unternehmenskultur statt, bei der Bauchgefühle durch Entscheidungen ersetzt werden, die auf Zahlen, Daten und Fakten beruhen. Gemeint sind damit nicht nur Kennzahlen wie Umsatz, Deckungsbeitrag oder Betriebsergebnis, sondern auch Ergebnisse aus fortgeschrittenen Datenanalysemodellen bis hin zu qualitativen Daten. Ganz oben auf der Agenda standen für 70 % der Befragten wie auch im Jahr 2018 das Stammdatenmanagement und Datenqualitätsmanagement. Dies zeigt nicht nur den Wunsch nach verlässlichen Daten, sondern zudem die Notwendigkeit, Daten in zunehmend fragmentierten System- und Datenlandschaften steuern und kontrollieren zu können. Ähnlich wichtig waren für Business-Intelligence-Anwender Data Discovery und Visualisierung (68 %), Self-Service BI (65 %), Data Governance (65 %), datengetriebene Kultur (64 %) und das Thema Datenaufbereitung (62 %).

Abb. 3.4  Trends bei Datenmanagement und Business Intelligence. (Quelle: BARC Trend Monitor 2019, n = 2679 BI-Nutzer)

136

3  Mit 30 Prinzipien zum Digital Champion

Fallbeispiel Oracle:

„Wie verkaufe ich blaue Fahrräder mit dem größten Gewinn und der größten Nachhaltigkeit?“ Dieser anspruchsvollen Fragestellung näherte sich der Soft- und Hardwarehersteller Oracle exemplarisch mithilfe von sechs Dimensionen und mehr als 30 Kennzahlen: • Planungs- bzw. Zielgrößen wie Rentabilität, Liquidität, Wirtschaftlichkeit und Cashflow • Steuerungskennzahlen wie Return on Investment, Kundenzufriedenheit, Umsatz je Mitarbeiter, Produktqualität, Lieferantenzuverlässigkeit und Mitarbeiterzufriedenheit • Kontrollgrößen wie Produktivität, Durchlaufzeiten, Umschlagsfrequenz, Lagerdauer, Sicherheit, Nacharbeit und Rückläufe • Marktchancen in Form von Visibilität im Markt, Reputation, Markenwert, Kundentreue, Adaption von Trends, Kundentypen, lokalen Verteilungen und Einkommensverteilung • Zufallsvariablen wie Wetter, Stimmungen durch Influencer oder Blogs und lokale Verkehrssituationen • Vergleichskennzahlen wie durchschnittliche Time-to-Market, durchschnittlicher Stückgewinn und relativer Marktanteil Zur Beantwortung der Fragestellung setzte Oracle einerseits auf die Auswertung von zur Verfügung stehenden internen und externen Daten sowie Maschinen- bzw. Sensordaten, Social-Media-Daten, Bewegungs- und Geo-Daten. Hinzu kamen statistische Methoden und maschinelles Lernen über Data Mining, explorative Analyse und Predictive Analytics sowie fortgeschrittene Technologiesysteme wie das Software-­ Framework Hadoop, Open-Source-Framework Spark, die freie Programmiersprache für statistische Berechnungen und Datenvisualisierung R, die vielseitig einsetzbare, klar strukturierte Programmsprache Python sowie Cloud-Dienste vor dem Hintergrund gesunkener Kosten für Speicherung und Arbeitsspeicher. Anonyme Teilnahme an Datenmarktplätzen Maschinen verfügbar halten, Produktionsausfälle schon Tage im Voraus erkennen und Produktionsanlagen verbessern, Betriebsmittelfüllstände erkennen und frühzeitig für Nachschub sorgen – die Anzahl neuer datenbasierter Services steigt, wenn Informationen übergreifend fließen. Wer Daten auf Datenmarktplätzen mit anderen teilt, erschließt Vorteile für alle, die dabei mitmachen (Schweichhart 2019). Um Ausfälle genauer mit höherer Güte vorausberechnen zu können, benötigen Unternehmen mehr Daten, als sie selbst mit ihren Maschinen und Anlagen erzeugen können. Stellen Unternehmen ihre Daten auf einem Datenmarktplatz bereit, erhalten alle Unternehmen, die ihre jeweiligen Maschinendaten mit anderen auf der Plattform teilen, über Algorithmen präzisere Vorhersagen und können auf diese Weise ihre Anlagen effizienter warten. Da häufig Wettbewerbsüberlegungen oder Vertraulichkeiten dem übergreifenden Austausch im Weg stehen, bieten die Betreiber neutrale Datenmarktplätze an: So werden die Informationen aus unterschiedlichen Datenpools anonymisiert und Sicherheitsstandards beim Austausch eingehalten.

3.5  Digitale Transformationsumsetzung

137

Der ökonomische Wert von Daten steigt Der ökonomische Wert von Daten, der durch Speicherung, Abfrage und Analyse und VermarktunggroßerMengenanGeschäfts-undUnternehmensdatenoder­Internet-­of-Things-­Daten entsteht, steigt. Laut Digital Economy Report 2018 des weltweit führenden Anbieters für Rechenzentren- und Colocation-Lösungen, Digital Realty, erwirtschaften die fertigenden Unternehmen in Deutschland allein mit Daten rund 21 Mrd. € und belegten nach ITK mit 37 Mrd. € den zweiten Platz. Zusammen war die ITK-, Fertigungs- und Finanzbranche für 63,9 % der datengeriebenen Wertschöpfung verantwortlich. Daneben haben auch traditionelle Branchen wie Bergbau, Landwirtschaft, Wasserversorgung und Bauwesen ihre Datenverwertungsdefizite erkannt und stark erhöht. Obwohl die Analysten den Wert von datengetriebener Wertschöpfung in Deutschland auf rund 196 Mrd. € jährlich bezifferten, schöpften die Unternehmen bislang mit rund 108 Mrd. € erst 55 % des vollen Potenzials aus. Dabei spielen Daten eine entscheidende Schlüsselrolle. Im Vergleich zum Wachstum der deutschen Wirtschaft von rund 2 %, wächst die Datenökonomie laut Digital Realty mit rund 10,9 % um ein Vielfaches schneller. Die 108 Mrd. €, die bereits 2016 in Deutschland mit Daten erwirtschaftet wurden, entsprachen 3,8 % der Gesamtwirtschaft. Mit Daten Geld verdienen Daten lassen sich zu Geld machen. Angesichts der weltweit steigenden Datenmengen eröffnet die Datenmonetarisierung für Unternehmen neue Potenziale. Dabei können Unternehmenslenker ihre Daten auf verschiedene Art und Weise monetarisieren. Laut IDC-­Report von 2018 wird die globale Datenmenge von 33 Zettabyte im Jahr 2018 auf 175 Zettabyte bis 2025 anwachsen. Einen großen Anteil am Anstieg der Datenmenge wird das Internet der Dinge haben. Die Analysten von IDC prognostizierten, dass Internet-­of-­Things-Geräte im Jahr 2025 mit 90  Zettabytes über die Hälfte aller globalen Daten generieren werden. In diesem Kontext wird das Streben nach Datenmonetarisierung zur logischen Konsequenz, denn mit steigender Intelligenz von Produkten, Maschinen und Geräten, die sowohl Daten produzieren als auch verarbeiten können, steigt nicht nur das Volumen, sondern v. a. der Wert der verfügbaren Daten (Schinko 2019). Geschäftsdaten lassen sich auf verschiedene Weise nutzenbringend einsetzen und monetarisieren. 2013 beschrieben Ralph Hofmann und Arent van’t Spijker die heute nach wie vor gültigen „Patterns in Data Driven Strategy“: • Direkte Datenmonetarisierung: Verkauf von unverarbeiteten, anonymisierten Rohdaten als Daten-Assets • Daten zur Verbesserung von Produkten und Services: Dateneinsatz zur Optimierung und Erneuerung von bestehenden Produkten oder Servicegeschäften • Commodity Swap: Datengenerierung mit beliebten oder häufig verkauften Produkten und Services, um anschließend auf Basis dieser Daten ein neues Produkt oder einen neuen Service zu entwickeln, die mit dem bestehenden Angebot unmittelbar verbunden sind • Value Chain Integration: Datenaustausch zwischen Unternehmen zur Prozessoptimierung und Kostensenkung (Beispiel: Supermarkt und ein Getränkelieferhandel ­berechnen mithilfe von Echtzeitdaten ihren genauen Bedarf und stimmen die Lieferung automatisiert aufeinander ab)

138

3  Mit 30 Prinzipien zum Digital Champion

• Value Net Creation: Datenaustausch zwischen Unternehmen, die das gleiche Kundensegment bedienen, zur Prozessoptimierung und Verbesserung des Kundenangebots In seiner 2019 veröffentlichten Studie „Data Monetization  – Use Cases  – Umsetzung, Mehrwerte“ hat BARC aktuelle Ansätze der Datenmonetarisierung in europäischen Unternehmen untersucht. Dabei wurde die Monetarisierung von Daten hauptsächlich von größeren Unternehmen durchgeführt: 25 % der befragten Großunternehmen und 23 % der größeren mittelständischen Unternehmen gaben an, bereits Produkte zur Monetarisierung eingeführt zu haben. Der wichtigste Mehrwert von Datenprodukten wurde in der Generierung neuer Umsatzströme gesehen (69 %), gefolgt von der Bereitstellung neuer Dienstleistungen (66 %), einer durch Daten verbesserten Kundenbindung (63 %) sowie einem verbesserten Kundenverständnis (56 %). Beispielhafte Fragen zu Datenmanagement und Datenwertschöpfung

1. Auf welcher Reifegradstufe befinden sich IT-Infrastruktur und Unternehmensdaten auf ihrem Weg zur datengetriebenen Organisation? 2. Wie klassifizieren Sie Ihre Daten? 3. Wie schätzen Sie die Datenqualität in Ihrem Unternehmen ein? 4. Welchen der folgenden Herausforderungen steht ihr Unternehmen beim erfolgreichen Datenmanagement gegenüber (unzureichende Ressourcen, unzureichende Kompetenzen, fehlende Bereitschaft zur Änderung durch festgefahrene Strukturen, fehlende Kultur) 5. Welchen Wert haben ihre Geschäftsdaten und wie monetarisieren sie diese?

3.5.11 Digitales Transformationsmanagement Da sich alle  Unternehmen in ihrer Strategie, Wertschöpfung, Kundenbeziehung, Führungskultur, Technologiewahl sowie ihre Historie und ihrem Management unterscheiden und deshalb jedes Unternehmen für sich eine ganz ureigene DNA aufweist, können standardisierte Vorgehensmodelle beim Management der digitalen Transformation zu keinem optimalen Ergebnis führen. Ein wirksames Transformationsmanagement berücksichtigt die individuellen Reifegradausprägungen der Organisation und Gestaltungsüberlegungen der Führungsmannschaft, um die Übergänge zwischen den Transformationsphasen optimal zu gestalten. Es orientiert sich entlang der gemeinsam entwickelten und verabschiedeten strategischen Handlungsfelder und Prioritäten. Sind Unternehmen in ihrer digitalen Reife schon fortgeschritten, managen sie die Transformation mit höherer Umsetzungssicherheit und Leichtigkeit und Geschwindigkeit. Befinden sie sich noch am Anfang benötigen sie ein Orientierungssystem zur Steuerung. Das in Kap. 4 dargestellte digitale Transformationshaus führt alle wesentlichen Disziplinen zusammen, um die nächste Generation der digitalen Transformation ganzheitlich zu managen.

3.5  Digitale Transformationsumsetzung

139

Orchestration der digitalen Transformation Auch wenn die Verantwortung für die Umsetzung der geplanten, organisationsübergreifenden Veränderungsprozesse überwiegend im System selbst und bei ihren Akteuren liegt, setzen Unternehmen häufig einen gesamttransformationsverantwortlichen Orchestratoren ein  –  bspw. in der Funktion  Chief Digital Officer oder Chief Information Officer oder Digital Transformation Manager  – der den Wandel systematisch und aktiv vorantreibt, Fortschritte erfasst, bei unerwünschten Abweichungen eingreift und das Große und Ganze steuert bzw., präziser ausgedrückt, steuern lässt. Je nach Unternehmensgröße unterstützt durch ein eigenes Digitalisierungskernteam, stimmt der digitale Orchestrator die geplanten Veränderungen mit allen beteiligten Akteuren ab. Er synchronisiert die in agilen Teams umgesetzten Aktivitäten untereinander und hat die Zwischenergebnisse und Projektfortschritte über alle Transformationsphasen hinweg im Blick. Dabei arbeitet er sowohl im System (optimierend), als auch am System (weiterentwickelnd). Als erster Ansprechpartner für alte und neue Digitalthemen, bringt er Struktur und Übersicht ins komplexe Geschehen und führt lose Ende in der Organisation zusammen. Zwischen Managementteam und den Fachbereichen bringt der Orchestrator die digitalen Initiativen in Balance, verbessert das Risikomanagement und grenzt die operative Umsetzung von strategischen Diskussionen ab. In der Praxis erweist es sich als sinnvoll, die Transformationsprojekte in ihrer Gesamtzahl zu beschränken. Aus diem Grund stimmt der Orchestrator mit den Verantwortlichen eine Obergrenze für Projekte, die budget- und kapazitätsseitig als beherrschbar gelten, ab. Sobald ein Transformationsprojekt abgeschlossen wird, rückt das nächste aus der Pipeline nach. In Analogie zu einem Orchesterdirigenten stellt der Orchestrator eine erfolgreiche, agile Umsetzung der Digitalstrategie innerhalb der von der Unternehmensleitung verabschiedeten Handlungsfelder sicher. Er sorgt dafür, dass das digitale Konzert gelingt. Anforderungen an digitale Orchestratoren Ein wirksamer digitaler Orchestrator ist in der Lage, auf Top-Managementebene zu überzeugen oder selbst Teil des Top-Managements. Er ist in der Lage, überlappende Projekt­ initiativen miteinander zu verzahnen und nebeneinander zu überwachen. Darüber hinaus schafft er es, Schnittstellenpartner und „Fackelträger“ für sich zu gewinnen sowie Marktchancen frühzeitig zu erkennen oder selbst welche zu schaffen (Wolan 2013). Der Strauß an Anforderungen ist groß: Idealerweise verfügt die Stelleninhaberin oder Stelleninhaber über ausgeprägte/s 1. Veränderungskompetenz 2. Unternehmertum 3. Führungskompetenz, Coaching-Skills und Empathie 4. Entscheidungsstärke und Beharrungsvermögen 5. Projektleitererfahrung bei komplexen, agilen Projekten 6. Digitale Fach-, Methoden- und Technologiekompetenz 7. Lösungsorientierung

140

3  Mit 30 Prinzipien zum Digital Champion

8. Chancenerkennungsvermögen 9. Kommunikationsstärke und Begeisterungsfähigkeit 10. Kundennutzenorientierung

Ein wirksamer digitaler Orchestrator kann, darf und will Ein wirksamer Orchestrator kann nicht nur – sondern darf und will zudem: kann, weil er Transformationskompetenz und Handlungseffizienz mitbringt; will, weil er einen unnachgiebigen Veränderungsdrang in sich trägt und von den Chancen  und positiven ökoni­schen Effekten durch technologischen Fortschritt fasziniert ist; darf, weil er mit den nö­tigen Kompetenzen ausgestattet ist und jederzeit mit der Rückendeckung des Top-Managements rechnen bzw. selber als Top-Managementmitglied entscheiden kann. Sind alle drei Voraussetzungen gegeben, vermeidet der Transformationsverantwortliche Kapazitäts- und Budgetverschwendung, wenn er die vergleichzeitigten Projekte in ihrer Obergrenze beschränkt, Zielkonflikte und Hindernisse aufspürt und sich unermüdlich für konstruktive Problemlösungen und Chancenerschließung einsetzt. Digitaler Lenkungskreis Um die digitale Transformation optimal zu unterstützen, rufen Unternehmen einen digitalen Lenkungskreis ins Leben. Dieser setzt sich üblicherweise zusammen aus einigen Mitgliedern des Top-Managements, bestimmten  Spartenleitern, dem IT-Leiter und dem di­ gitalen Orchestrator. Der Kreis ermöglicht und unterstützt die Umsetzung der Digitalstrategie aktiv. Die Mitglieder des Lenkungskreises treffen sich, um die aktuellen Entwicklungen und Fortschritte zu besprechen, Budgets für Transformationsprojekte zuzuweisen und mögliche Hindernisse zu beseitigen. Bei besonders herausfordernden, strategisch bedeutsamen Themen können sich Top-Manager auch selbst in agile Teams aufteilen oder ein ausgewähltes agiles Team als Mitglied unterstützen. Erfahrungsgemäß finden vier bis sechs solcher hochrangigbesetzten Digitalrunden pro Jahr statt  und dauern je mach Themenumfang und digitaler Reife der Organisation zwischen 1/2 und einem Tag. Agiles Arbeiten wird zum Standard Agilität beschreibt die moderne Form von Arbeitsorganisation, die seit Jahren an Bedeutungszuwachs erfährt. In Anlehnung an den 13. State of Agile Report von 2019, setzten 54 % der Anwender auf die Top-Methode des agilen Arbeitens Scrum, 10 % auf Scrum XP und 8 % auf Scrumban. Agile Methode Scrum

Scrum ist ein in der Unternehmenspraxis anerkanntes Rahmenwerk mit Werten, Prinzipien, und Prozessen für agiles Projektvorgehen. Die Methode beschreibt vier Hauptrollen: • Business Owner: Trägt die geschäftliche und technologische Verantwortung für Governance, Compliance und Return on Investment. Als Projektsponsor vertritt er das große Zielbild, die Vision, das Geschäftsmodell und sucht nach besten Lösungen für das Unternehmen. Er ist strategisch verantwortlich, steckt den Rahmen ab (Business-­

3.5  Digitale Transformationsumsetzung

141

Value-­Hypothesen, Teamgröße, Projektdauer) und nimmt keine operative Rolle bei der Umsetzung wahr. So delegiert er die operative Verantwortung, was operativ für die Realisierung der strategisch gewünschten Wirkung zu tun ist, an den Product Owner. • Product Owner: Ist Meister des Was. Er wird vom Business Owner und gegebenenfalls weiteren Stakeholdern beeinflusst und blickt durch die Brille der externen oder internen Kunden, auf die das Projekt abzielt. Als operativer „Value Optimizer“ im Projekt entwickelt er im kontinuierlichen Dialog mit seinen Kunden eine Vorstellung davon, was erstellt oder verändert werden soll. Im sog. Product Backlog legt er eindeutig die Priorität der Maßnahmen für die Erreichung der gewünschten Projekteziele fest. Mit jeder neu gewonnenen Erkenntnis aktualisiert der Product Owner das Backlog mit der Liste aller Aufgaben, die aktualisiert werden, um die gewünschten Teamergebnisse zu erreichen. Weiterhin achtet er darauf, dass keine unrealistischen oder technisch unmöglichen Ziele vorgelegt werden. • Umsetzungsteam: Ist Meister des Wie. Das Team setzt sich aus den benötigten Kompetenzträgern zusammen, die für die Entwicklung und Umsetzung der geplanten Maßnahmen erforderlich sind. Das Team arbeitet funktionsübergreifend zusammen. Abstimmungen finden schnell und auf direktem Weg statt. Das Team ist dafür verantwortlich, dass die entsprechenden Ziele eines Sprints (Entwicklungszeitraums) erreicht werden. Es handelt eigenverantwortlich und organisiert sich dabei selbst, indem es die anstehenden Aufgaben in gemeinschaftlicher Abstimmung verteilt. • Scrum Master: Trägt die Verantwortung für das Scrum-Rahmenwerk, seine bestmögliche Anwendung und die kontinuierliche Weiterentwicklung des Scrum-Teams. Er nimmt die Rolle eines Coaches wahr. Als Vermittler und Unterstützer des Teams lebt er die agilen Werte und Prinzipien vor, sorgt für Transparenz und strebt eine fortlaufende Optimierung in den Projekten an. Er räumt Hindernisse aus dem Weg, sorgt für effiziente Informationsflüsse zwischen dem Product Owner und dem Team, moderiert die Scrum-Meetings und schützt das Team während den Sprints vor unzulässigen Eingriffen von außen. Dabei nimmt er bewusst keine Führungsrolle im Team ein, sondern fördert dessen Selbstorganisation, indem er die Teammitglieder dazu ermutigt, ihre Komfortzone zu verlassen, Dinge einfach mal auszuprobieren und vordefinierte Ideen über Rollengrenzen und Verantwortlichkeiten hinweg infrage zu stellen. Bei Scrum stehen die Wünsche und Anforderungen interner Kunden – bei Innovationsprojekten auch externer Kunden  – im Fokus. Projektanforderungen hält der Product Owner im sog. Product Backlog fest und aktualisiert dieses ständig. Die Inhalte eines Sprints von ein bis vier Wochen werden gemeinsam im Sprint Planning Meeting erarbeitet und im sog.  Sprint Backlog festgehalten  – eine Tabelle mit projektbezogenen Aufgaben, zu deren Fertigstellung sich das Umsetzungsteam bis Ende des Sprints verpflichtet. Den Umsetzungsaufwand schätzt das Umsetzungsteam, z. B. mit Planning Poker, eine spielerische Form zur Schätzung der Umsetzungsaufwände. Der Sprint-­ Fortschritt wird täglich und der Projektfortschritt am Ende des Sprints begutachtet, z. B. mit Burndown Charts. Mit jedem abgeschossenen Sprint fügt das Team funktionierende Funktionen den bereits bestehenden Funktionen hinzu (inkrementelle Weiterentwicklung). Jeder Sprint endet mit einem Review Meeting, in dem das Scrum-Team

142

3  Mit 30 Prinzipien zum Digital Champion

Feedback der Stakeholders zu den fertiggestellten neuen Funktionen einholt und einen Ausblick auf den kommenden Sprint gibt, sowie mit einer Retrospektive, in der sich das Scrum-Team zur Überwindung von Störungen im Vorgehen austauscht. So kann das Scrum-Team kontinuierlich aus seinen gemachten Erfahrungen lernen, die Zusammenarbeit im Team verbessern und gemeinsam Maßnahmen zur Verbesserung entwickeln. Agiles Projektmanagement in der Praxis Fällt die Wahl auf eine Sportart, die dem agilen Projektmanagement ähnlich ist, wäre dies zum Beispiel Golf. Zum Zeitpunkt des Abschlags können Golfer bei längeren Bahnen die Zielfahne noch nicht sehen. Sie wissen nur grob, in welche Richtung der Ball abzuschlagen ist. Mit jedem weiteren Schlag nähern sie sich zwar der Zielfahne, aber bis zum Ende können sie nur bedingt voraussehen, wo der Ball nach jedem Schlag liegen bleiben wird. Daher betrachten die Spieler nach jedem Sprint die Ausgangssituation neu und passen die Schlagrichtung und -intensität immer wieder an. Im Gegensatz zu klassischen Projekten, bei den der Zielumfang meist fix und Aufwände und Zeiteinsatz variabel ausgeprägt sind, zeichnen sich agile Projekte durch überwiegend fixe Aufwände und Umsetzungszeiten sowie variable Umfänge oder Ergebnisse aus. Es gibt keine linearen Prozesse mehr, bei denen die Verantwortlichen die Phasen sequenziell abarbeiten – sondern einen leichtgewichtigen und flexiblen Prozess, bei dem die Teams die Projektphasen iterativ durchlaufen. Dabei wird der agile Prozess fortlaufend angepasst und verbessert. Detailplanungen gibt es im agilen Projektmanagement auch – jedoch sind diese nur wenig umfangreich und gelten nur für kurze Zeithorizonte. Agiles Projektmanagement führt zu besseren Ergebnissen, wenn die Auftraggeber bzw. Kunden effektiv eingebunden werden und in manchen Fällen sogar aktiv mitwirken. Da die Projektergebnisse zur Zufriedenheit und Akzeptanz ihrer Auftraggeber führen sollen, sind regelmäßige Abstimmungen unerlässlich, um die Zwischenergebnisse zu besprechen und Feedback einzuholen. Anstatt, wie beim klassischen Projektmanagement, ein Projektleiter das gesamte Projekt vorantreibt und verantwortet, steuert sich das agile Team weitgehend selbst. Dabei ersetzt das Team Projektmeetings und Protokolle durch regelmäßige Abstimmungen bis hin zu kurzen täglichen Meetings. Agile Methode Kanban

Drei Jahre nachdem David Anderson die von Toyota über viele Jahrzehnte entwickelte Vorgehensweise zur kontinuierlichen Weiterentwicklung von Just-in-time-Produktion als Manager für Microsoft adaptiert hatte, stellte er diese 2007 erstmals öffentlich vor. Darin skizzierte er, wie sich durch die Begrenzung der Anzahl paralleler Arbeiten (Workin-progress-Limit) kürzere Durchlaufzeiten erreichen und Probleme schneller sichtbar machen lassen. Seine Methode zielte darauf ab, in IT-Organisationen kleinschrittige Veränderungen mit hoher Akzeptanz aller Beteiligten durchzuführen (Anderson 2011). Durch einfache Mittel wie Visualisierung des Arbeitsflusses und Limitierung parallel bearbeiteter Aufgaben wurden Engpässe schnell sichtbar, um sie Schritt für Schritt überwinden zu können. Kanban visualisiert den Umsetzungsfortschritt in einem Task-Board (Offen, in Bearbeitung, Abgeschlossen bzw. To-do, Doing, Done). Alle Aufgaben wer-

3.5  Digitale Transformationsumsetzung

143

den auf Notizzetteln festgehalten und verändern ihre Position auf dem Board von Arbeitsschritt zu Arbeitsschritt. Innerhalb jedes Arbeitsschritts gibt es eine Obergrenze für die Zahl gleichzeitig in Bearbeitung befindlicher Aufgaben. So legen die Verantwortlichen beispielsweise maximal drei bis vier Anforderungen je Arbeitsschritt fest, die gleichzeitig bearbeitet werden dürfen. Sobald in einem Arbeitsschritt etwas abgeschlossen wird und eine neue Aufgabe im Rahmen des gesetzten Work-in-­progress-Limits nachrücken kann, fügt das Team diese auf dem Kanban-Board hinzu. Agil wird vielerorts gewünscht – doch hybrides Arbeiten ist die Realität Interdisziplinäre, agil agierende Teams einzusetzen, liegt im Trend. Und dennoch vollzieht sich die Unternehmensrealität nicht ausschließlich agil: Die meisten Unternehmen arbeiten hybrid. Hybrides Projektmanagement ist die Kunst, zwischen klassischem und agilen Projektmanagement zu balancieren. Es führt zu besseren Resultaten, wenn Unternehmen abhängig von den jeweiligen Herausforderungen, Projekten und Kompetenzen immer wieder aufs Neue entscheiden, welche Methode sich am besten zur Umsetzung eignet und zu bestmöglichen Ergebnissen für das Unternehmen führen kann. Deswegen setzen Unternehmen Agilität an den richtigen Stellen in ihrer Organisation ein – dort, wo es das Unternehmen weiterbringt. Im State of Agile Report 2019 gaben 22 % der befragten Unternehmen an, das alle ihre Teams ausnahmslos agil arbeiten. Die anderen setzten auf Hybridformen oder traditionelles Projektmanagement, wie auch die PMI-Studie Pulse of the Profession aus dem Jahr 2017 belegt: Darin nutzen 79 % aller Unternehmen unterschiedliche Methoden parallel oder ließen die Teams selbst entscheiden, wie sie arbeiten möchten (Widmer 2017). So verfahren auch digitale Vorreiter wie Amazon, Google, Facebook, Apple, Netflix, SAP oder Tesla. Sie setzen auf agile Teams und kombinieren diese mit klassisch geführten Projektstrukturen. Fallbeispiel agile Teams bei Robert Bosch

Das Traditionsunternehmen Robert Bosch war eines der ersten deutschen Großunternehmen, das agile Methoden im großen Stil implementierte. Frühzeitig erkannte die Unternehmensleitung, dass Top-down-Management in einer globalisierten, schnelllebigen Welt nicht mehr so wie gewünscht funktionierte. Während Bosch komplexe Entwicklungsprozesse auf die Nutzer ausrichtete, um die Prozesse zu beschleunigen, erlebte das Unternehmen in einem mehrjährigen Anpassungsprozess immer wieder Rückschläge. Das Unternehmen fand heraus, dass unterschiedliche Geschäftsbereiche unterschiedliche Ansätze benötigten. Selbst der duale Ansatz, bei der fortschrittlichere Geschäftsbereiche mit agilen Teams arbeiteten und traditionell agierende auf klassische Strukturen setzten, verfehlte das Ziel der gesamtheitlichen Transformation. Heute arbeitet Bosch mit einer Kombination aus agilen Teams und herkömmlich strukturierten Bereichen  – unterstützt von einem sich aktiv einbringenden Lenkungsausschuss. Darüber hinaus besinnen sich fast alle Unternehmensbereiche auf agile Werte. So arbeiten sie besser zusammen und können sich schneller an sich verändernde Märkte anpassen.

144

3  Mit 30 Prinzipien zum Digital Champion

Schrittweises agiles Einspielen der Organisation Bis neue Organisationsmodelle, Workflows und Schnittstellen entstehen und Unternehmen messbare Performance- und Ergebnisverbesserungen erzielen, braucht es Zeit. Für agile Teams ist es auf Dauer demotivierend, wenn sie immer wieder durch bürokratisch gehandhabte Kontroll- oder Genehmigungsprozesse oder mangelnde Kollaborationsbereitschaft der operativen Einheiten ausgebremst werden. Auf letztere wirken die schnelldrehenden Aktivitäten der agilen Teams häufig irritierend und störend. So bleiben Konflikte zwischen beiden Fronten nicht aus. Umso wichtiger ist daher  ein stetiges Nachsteuern, bis sich die Abstimmung zwischen beiden Bereichen verbessert hat und die neuen Arbeitsformen eine breitere Akzeptanz und Umsetzungsbereitschaft erfahren. Die Abb. 3.5 skizziert den Unterschied zwischen klassisch hierarchisch geprägten Organisationen, bei denen Entscheidungen von oben nach unten erteilt werden, und agil agierenden Organisationen, die innerhalb ihrer agilen Teams bestimmte Themen selbstorganisiert vorantreiben und dabei autark entscheiden können. Skalierung der agilen Methodik auf die gesamte Organisation durch das Top-­ Management Das Top-Management kann agile Methoden erfolgreich skalieren und damit erheblich von agil arbeitenden Teams im Unternehmen profitieren. Entscheidend dabei ist, dass die Führungsmannschaft ein richtiges Verständnis davon entwickelt, worum es bei agilen Projekten überhaupt geht. Anweisungen von oben zu erteilen und Pläne vorzugeben, mag bei manchen Veränderungsprogrammen funktionieren, widerspricht allerdings dem agilen Grundgedanken. Agil zu arbeiten, bedeutet, die verschiedenen Bereiche der Organisation als Kunden zu sehen. Dabei gibt das Top-Management die Prioritäten vor. Es organisiert

Abb. 3.5  Hierarchische Organisation vs. agile Organisation

3.5  Digitale Transformationsumsetzung

145

Möglichkeiten, die Erfahrungen der internen oder externen Kunden zu verbessern und ihren Erfolg zu steigern: Die Manager tauchen selbst in Problemlösungen ein und beseitigen Hindernisse, statt Aufgaben zu delegieren. So plant die Führungsmannschaft nicht alle Details im Voraus, da sie zu Beginn der geplanten Veränderung noch nicht weiß, wie viele agile Teams insgesamt in welcher Zusammensetzung benötigt werden, wann welche Kompetenzträger gebraucht werden und wie gut sich bürokratische Hemmnisse aus dem Weg schaffen lassen. Eine agile Organisation zu entwickeln, bedeutet ganz sicher nicht, dass alle Funktionen in agile Teams umgewidmet werden. Häufig sind bestimmte Funktionsbereiche dafür gar nicht ausgelegt – insbesondere, wenn es sich um Routinetätigkeiten handelt. Am besten eigenen sich agile Teams bei Innovationen und Situationen, in denen es um komplexe Aufgabenstellungen geht, die Lösungen unklar sind, die Projektanforderungen sich im Lauf der Zeit ändern dürften oder eine enge Zusammenarbeit mit internen bzw. externen Kunden möglich ist (Rigby et al. 2019). Im ersten Schritt arbeitet die Unternehmensspitze mit ausgewählten agilen Teams und sammelt erste Erfahrungen – einerseits Erfahrungen mit Mehrwerten, die agile Teams erzeugen, und anderseits Erfahrungen mit Barrieren, die auf dem Weg sichtbar werden und agiles Arbeiten erschweren. Auf Basis der Erkenntnisgewinne entscheiden die Top-­ Manager, wann und in welchem Umfang weitere agile Teams installiert werden. Wenn sich der Nutzen durch agilen Einsatz größer als die Investitionen und (Rüst-)Kosten darstellt, erweist sich die weitere Skalierung als sinnvoller Schritt. Im Fall, dass die Kosten den erzielten Nutzen nicht rechtfertigen, können die Manager weitere Aktivitäten in dieser Richtung pausieren und nach Möglichkeiten suchen, wie sie den Wert der bestehenden agilen Teams weiter steigern können. Zu einem späteren Zeitpunkt kann das Managementteam den agilen Umbau fortsetzen und anstreben, weitere Hierarchieebenen des Unternehmens in ein agiles System einzubinden. Um weitere Zyklen aus Experimenten und Lernen anzustoßen, setzt das Führungsteam i. d. R. auf zwei wichtige Tools: zum einen eine Systematik bezüglich potenziell einzusetzender Teams und zum anderen eine geplante Reihenfolge hinsichtlich der Prioritäten (Rigby et al. 2019). Vorausschauende Transformationssteuerung Wer einen großen „Unternehmenstanker“ steuert und die Richtung ändern will, muss das Steuer leichter und viel früher einschlagen. Denn häufig wird unterschätzt, dass nicht nur die Richtung stimmen, sondern das Steuerungsteam zusätzlich über gewisse Qualitäten verfügen muss. Professor Günther Dueck nennt dies Steuerungskunst und beschreibt das typische Übersteuerungsproblem, wenn das Management die strategische Richtung ändern will. „Wir müssen das Steuer energisch herumreißen!“, ruft das Management seinen Mitarbeitern zu und tut dies auch. Denn meist soll es schnell gehen – nachdem Klarheit über die zukünftig einzuschlagende Richtung herrscht. Auf diese Weise entsteht Übersteuerung anstelle einer sanfteren, vorausschauenden Unternehmenssteuerung (Dueck 2019) oder der Transformationssteuerung.

146

3  Mit 30 Prinzipien zum Digital Champion

Vermeidung von Überdigitalisierung Hohe Digitalisierungsgrade in den Transformationendisziplinen sind sicher kein Nachteil. Aber in vielen Fällen nicht immer erforderlich. Es sei denn, das Marktumfeld ist bereits deutlich weiter digital fortgeschritten als das eigene Unternehmen. Aus diesem Grund ist es gar nicht nötig, bei digitalen Reifegraden Zielmarken von 100 % anzustreben (Moore 2018). Wenn z. B. ein internationales Unternehmen alle seine Kunden auf mobile Transaktionen umstellen möchte, nutzen in einigen Ländern fast 100 % der Kunden ein Smartphone, während dies in anderen Ländern nur 25 % der Kunden tun. Die Kunst liegt in einer ausgewogenen Steuerung des digitalen Transformationsmanagements bei gleichzeitiger Sicherstellung, dass in allen wettbewerbsrelevanten Disziplinen ausreichende Digitalisierungsgrade realisiert werden. Wenn KI einen höheren Stellenwert im Lauf der Transformation erhält Im Zeitalter der Künstlichen Intelligenz steht irgendwann auch die Schlüsseltechnologie KI im Zentrum von Transformationsüberlegungen und -aktivitäten. Ähnlich wie Lenker und Entscheider ein grundlegendes Digitalverständnis benötigen, um gute zukunftsgerichtete Entscheidungen zu treffen, ist dies auch bei KI der Fall. Bevor KI in den Fokus unternehmensweiter Transformation rückt, können Führungskräfte ihr Engagement für KI deutlich machen, indem sie selbst an den Weiterbildungen teilnehmen und darüber hinaus entsprechende Weiterbildungsinitiativen in die Wege leiten wie KI-Workshops, KI-Hospitationen, Einbindung von erfahrenen KI-Branchenvertreter und virtuelle oder persönliche 1:1-KI-Coachings. Anders als bei herkömmlichen IT-Projekten erfordert KI-Experimentierfreude. Denn oftmals gelingen die ersten Sprints und Iterationen nicht so erfolgreich, wie gewünscht. In solchen Fällen sollten die Verantwortlichen betonen, was das Unternehmen aus den Pilotprojekten lernen konnte. Das fördert eine gesunde Risikobereitschaft. Auch ein Vergleich der Ergebnisse der Entscheidungen, die jeweils mit und ohne die Unterstützung durch KI getroffen wurden, kann die Mitarbeiter von der Verwendung der Technologie überzeugen (Fountaine et al. 2019). Zu seinem späteren Zeitpunkt kann das Unternehmen die KI-Einsichten in die Dashboards integrieren, auf die (Top-)Manager bei ihren täglichen Entscheidungen zugreifen. Im Rahmen der KI-Einbindung beim Management der Transformation spielt auch eine wesentliche Rolle, wer sich für den Erfolg der Intiativen verantwortlich fühlt. Dies können ausschließlich die operativen Geschäftseinheiten sein, die am meisten von den Vorteilen durch KI-Technologieeinsatz profitieren. Werden KI-Projekte in agilen Team umgesetzt, tragen zum Erfolg einer geplanten KI-Lösung unterschiedliche Kompetenzträger bei: der Product Owner (der Analytics auf ein bestimmtes Geschäftsprobleme anwenden lässt), Datenarchitekten, Data Scientists, Data Engineers, UX-Designer, Visualisierungsspezialisten und Geschäftsanalysten. Beispielhafte Fragen zum digitalen Transformationsmanagement

1. Gibt es eine explizite Roadmap mit konkreten Meilensteinen, an der sich der digitale Transformationsprozess orientiert?  Wie viele Transformationsprojekte treiben sie gleichzeitig voran? 2. Wie erfolgt das Zusammenspiel zwischen dem digitalen Orchestrator und dem digitalen Lenkungskreis?

3.5  Digitale Transformationsumsetzung

3. Wie skalieren Sie agiles Arbeiten innerhalb der Organisation? 4. Wie vorausschauend steuert ihr Unternehmen die digitale Transformation? 5. Wie messen Sie den Erfolg Ihrer digitalen Transformation?



Das richtige Umsetzungsmaß

„Die Umsetzung der Digitalen Transformation unterliegt naturgemäß restriktiven Budgets und begrenzten Kapazitäten. Im Anschluss an die Analyse- und Strategiephase können zu Beginn 3, 5 oder auch 10 gleichzeitige Projekte sinnvoll sein, von denen einige auch agil umgesetzt werden können. Aber nicht mehr – sonst droht Verzettelungsgefahr.“

147

148

3.6

3  Mit 30 Prinzipien zum Digital Champion

Digitale Überlegenheit

Der Harvard Business Manager untersuchte bis 2013 mehr als 25.000 Unternehmen in Europa, Asien und USA über einen Zeitraum von 44 Jahren. Bei den Unternehmen konnten die Studienautoren Mumtaz Ahmed and Michael Raynor mehrere Hundert Unternehmen als „Renditewunder“ auszeichnen. Nach genauer Analyse kamen sie zu der Einschätzung, dass Unternehmen besonders dann langfristig erfolgreich waren, wenn ihre Entscheidungen stets zwei Grundregeln folgten (Wolan 2013). Die erste Erfolgsregel lautete: „Überlegene Wettbewerbsvorteile durch eine starke Marke, einen attraktiven Stil oder Funktionsumfang, Qualität oder Komfort haben Vorrang vor niedrigen Preisen“. Daneben identifizierten die Studienleiter ein weiteres Erfolgsprinzip: „Umsatzsteigerung hat Vorrang vor Kostensenkung“. Diese beiden Prinzipien gelten auch im KI- Zeitalter. Darüber hinaus gibt es weitere Prinzipien für transformierende Unternehmen, um im Digitalwettbewerb einen Spitzenplatz einzunehmen.

3.6.1 U  nd ewig in der Championsleague spielen – mit dem KAFKA-­Modell zur digitalen Überlegenheit Unternehmen, die in der digitalen Champions League ihrer Branche spielen, verankern Überlegenheit in ihrer Unternehmens-DNA.  In wettbewerbsrelevanten Disziplinen führend zu sein, bedeutet in den branchenrelevanten Bereichen deutlich besser zu spielen als der Durchschnitt. Vor diesem Hintergrund besitzen Digital Champions hohe digitale ­Reifegradausprägungen in allen wettbewerbs- und kundenrelevanten Transformationsdisziplinen. In der Literatur gibt es zahlreiche Beispiele dafür, dass insbesondere branchenführende Unternehmen die digitalen Stoßrichtungen, Kultur, Veränderungs- und Umsetzungsgeschwindigkeit vorgeben und ihre Organisation kontinuierlich erneuern. Aber es ist nicht nur der Erneuerungswille oder die Umsetzungsgeschwindigkeit. Darüber hinaus gibt es eine Hand voll weitere Faktoren, die wettbewerbsüberlegene Konstellationen begünstigen. Das hier dargestellte KAFKA-Modell zeigt wie es gelingen kann, zu den digitalen Spitzenreitern der eigenen Branche aufzurücken. Die fünf Bausteine in Abb. 3.6. stehen für Managementimpulse, um als Unternehmen digitale Wettbewerbsüberlegenheit zu entwickeln und diese nach Möglichkeit dauerhaft zu konservieren. Kombninieren etablierte, erfolgshungrige Unternehmen das KAFKA-Modell mit Factor10-Initiativen und integrieren Sie KI schrittweise flächendeckend in ihre Unternehmens-DNA, ist ihnen ein kaum noch einholbarer Spitzenplatz in Ihrer Branche sicher.

3.6.2 Kulturelle Transformation Ohne kulturelle Transformation, keine nachhaltig erfolgreiche digitale Transformation. Aus diesem Grund investieren transformierende Unternehmen v. a. in ihre Mitarbeiter und stellen Ressourcen für beschlossene kulturelle Veränderungsmaßnahmen bereit. Aber wie schaffen es Unternehmen darüber hinaus, eine Kultur der Digitalität zu entwickeln und zu

3.6  Digitale Überlegenheit

149

Abb. 3.6  KAFKA-Modell zur digitalen Überlegenheit im Wettbewerb

etablieren? Für den Professor für Digitale Kultur und Therorien der Vernetzung Felix Stalder sind Gemeinschaftlichkeit und Algorithmizität charakteristische Formen der Kultur der Digitalität, bei der sich immer mehr Menschen auf immer mehr Feldern mithilfe komplexer werdenden Technologien beteiligen. In diesem Kontext bezeichnet Digitalität die Vernetzung von analoger und digitaler Realität, die historisch neue Möglichkeiten der Verknüpfung von menschlichen und nichtmenschlichen Akteuren schafft. Die Gemeinschaftlichkeit trägt dazu bei, dass Ressourcen allgemein zugänglich gemacht werden. Algorithmen tragen dazu bei, Entscheidungsfindungen zu automatisieren und die Informationsüberlastung zu reduzieren. Die von Algorithmen erzeugten Ordnungen stellen einen wichtigen Teil der Kultur des Digitalen dar. Auch werden neue Organisationsformen auf der Grundlage von digitalen Technologien möglich. Dabei sind Technologien und soziales Handeln untrennbar miteinander verbunden (Stalder 2016). Etablierung einer digitalen Kultur zur Beschleunigung von Transformation Wie Managementdenker Peter Drucker betonte, „verspeist die Kultur die Strategie zum Frühstück“. Diese verspeisende Kultur entscheidet, was im Unternehmen möglich ist und was nicht. Um neues erwünschtes kulturelles Verhalten erfolgreich zu verstetigen, bedarf es eines auf das Unternehmen zugeschnittenen Rahmens, der die kollektiven Werte und Bedingungen von Entscheidungen verändert (Penning 2017). Die Veränderung der Summe von Gewohnheiten in einer Organisation beginnt in den Köpfen und zeigt sich in der schrittweisen Verhaltensänderung von Führungskräften und Mitarbeitern auf ganz ­unterschiedlichen kulturellen Ebenen wie der Führungskultur, Vertrauenskultur, Kommunikationskultur, Umsetzungskultur, Experimentierkultur oder Kultur der Zusammenarbeit. Zwar braucht die Veränderung dieser vielschichtigen Ebenen im Zuge der Transformation etwas Zeit, insbesondere Zeit für Reflexion zwischen den beiden Entscheidungspunkten „Wir tun etwas“ und „Was wir tun“. Doch ist eine neue digitale Kultur erst einmal akzep-

150

3  Mit 30 Prinzipien zum Digital Champion

tiert und etabliert, hat sie das Potenzial, die kontinuierliche Transformation erheblich zu beschleunigen. Grundsätze menschlichen Verhaltens im Unternehmenskontext Um das Verhalten von Führungskräften und Mitarbeiter zu verändern, lohnt der Blick auf die ureigenen Grundsätze des motivbasierten Handelns. Florian Grolman verweist auf drei Leitideen. 1. Wir Menschen tun nicht unbedingt das, was man ihnen sagt, sondern häufig eher das, was ihnen nützt. 2. Wir Menschen verhalten uns logisch vor dem Hintergrund unserer persönlichen Ziele, Werte und Interessen. Das gilt auch dann, wenn das Handeln im Widerspruch zu den übergeordneten Zielen des Unternehmens steht. Aus diesem Grund haben Mitarbeiter ein genaues Gespür dafür, was Unternehmen von ihnen erwarten und welches Verhalten in der gelebten Unternehmensrealität belohnt wird. 3. Handlungsoptionen bestimmen unser Handeln mehr als unsere Überzeugungen. Daher wählen Mitarbeiter meist den Weg des geringsten Widerstands, um ihre Ziele zu erreichen. Gibt es mehrere Wege zur Zielerreichung, wählen sie überwiegend den aus subjektiver Sicht aufwandsärmsten Weg aus und nicht unbedingt den besten für das Unternehmen. Durch Veränderung der Rahmenbedingungen können Unternehmen die Handlungsmuster ihrer Mitarbeiter ändern – sofern sie die richtigen Stellschrauben zur Verhaltensänderung kennen und neu justieren (Grolman 2018). Demzufolge können sich Top-Manager die Frage stellen, wie sie die Rahmenbedingungen verändern wollen, damit das erwünschte Verhalten für ihre Mitarbeiter vor dem Hintergrund ihrer persönlichen Ziele, Werte und Zeit zur Aufgabenerledigung subjektiv vernünftig erscheint. Tab. 3.14 beschreibt Merkmale und Impulse zur erfolgreichen Entwicklung einer Digitalkultur. Wie KI die Kulturtransformation beeinflusst Die Mutter aller Technologien ist die Künstliche Intelligenz. Mitarbeiter jedes kundenund wettbewerbsorientieren Unternehmens werden sich künftig darauf einstellen müssen, KI in ihrem täglichen Arbeitsleben zu verwenden. Sobald KI im Unternehmen eingesetzt wird, liegt es an der Unternehmenspitze, klar zu kommunizieren, warum KI so wichtig für das eigene Geschäft ist und wo ihr eigener Platz in der neuen, KI-orientierten Kultur sein wird (Fountaine 2019). Die (betroffenen) Mitarbeiter brauchen die glaubhaft vermittelte Bestätigung, dass die neuen Technologien ihre Aufgaben erweitern werden, anstatt sie einzuschränken oder ganz verschwinden zu lassen. Dieses Signal ist von absolut herausragender Bedeutung, da KI mit seinem fast schon mystisch wirkenden Gewand und seiner Veränderungssprengkraft Ängste schürt. Die Angst irgendwann durch KI ersetzt zu werden ist real. Die meisten Mitarbeiter machen sich zurecht Sorgen – zumal sie weder genau verstehen, was KI denn nun eigentlich ist, noch antizipieren können, wie schnell und weit-

3.6  Digitale Überlegenheit

151

reichend die Mensch-Maschine-Transformation greifen wird. Ein latentes, mulmiges Gefühl macht sich breit. Genau deshalb sind Investitionen in eine positive Signale setzende KI-Kulturarbeit mindestens genau so wichtig, wie die unternehmensweite horizontale und vertikale Einführung der neuen Technologie selbst.  Tab. 3.14  Beispielhafte Merkmale für eine erfolgreiche, digitale Kulturveränderung 1

2

3

4

Merkmale Kulturveränderung als Chefsache

Impulse • Federführende Initiierung des Kulturveränderungsprozesses durch Führungsebene, die Veränderungsziele definiert • Bei Bedarf kann die Führungsebene Vorschläge von Mitarbeitern zu verändernden Rahmenbedingungen einbetten • Antizipation von und konstruktiver Umgang mit Rückschlägen im Zuge der Kulturveränderung • Nicht jeder Kulturwandel ist automatisch ein Top-downProzess, wenn der Grad der Mitarbeiterbeteiligung bereits vorher stark ausgeprägt war (Pundt et al. 2017) Rahmen zur Neuausrichtung • Gemeinsame Ausrichtung durch klare, sinnstiftende von Verhalten Rahmenbedingungen für das neue digitale und künstlichintelligente Zeitalter • Wesentliche Einflussfaktoren auf Kulturveränderung sind Führungsleitlinien, Unternehmensrichtlinien, Strukturen, Ablaufprozesse, Zielsysteme, Belohnungssysteme, Messund Controlling-Systeme und Kommunikationswege (Grolman 2018) sowie digitale Werkzeuge • Führungskräfte und digitale Lotse fungieren als sinnvermittelnde Botschafter der digitalen kulturellen Veränderungen VOPA und Entscheidungs- • VOPA-Ausprägungen (s. Abschn. 1.3) mit Vernetzung, veränderungen bei Offenheit, Partizipation, Agilität und Vertrauen als wichtige Kulturveränderung Ankerpunkte einer modernen, digitalen Kulturarbeit • Die Art und Weise, wie Entscheidungen zustande kommen, formen die Unternehmenskultur – klassische Entscheidungsprozesse weichen dezentralen, partizipativen Entscheidungen und werden zukünftig angereichert durch automatisierte, künstlich intelligente Entscheidungsfindung Mitnahme der gesamten • Mitnahme aller (betroffenen) Mitarbeiter, indem veränderungsbereiten Transformation als gemeinschaftlicher, Sinn stiftender Belegschaft Prozess erlebt wird • Frühzeitige Einbindung der Mitarbeiter • Besondere Förderung der erfahrenen, veränderungswilligen Mitarbeiter • Sichtbare Zeichensetzung, das kulturelle Regelbrecher nicht toleriert werden können • Toxische, die Organisation bewusst lähmende, destruktive, kulturelle Regelbrecher aus dem System entfernen (Fortsetzung)

152

3  Mit 30 Prinzipien zum Digital Champion

Tab. 3.14 (Fortsetzung) Impulse • Kulturveränderungen sind nicht vergleichbar mit der Einführung eines neuen Spitzenprodukts • Statt Hochglanzbroschüren oder sog. Townhall-­Events lieber Fokus auf Identifikation und Auflösung von Veränderungs- und Wachstumsknoten wie Mitarbeiterüberlastung oder suboptimal abgestimmtes Agieren untereinander • Kulturwandel als Prozess kleiner Schritte verstehen (Penning 2017) 6 Messung der • Analyse der Zufriedenheit über regelmäßige Mitarbeiterzufriedenheit Mitarbeiterbefragungen  • Steigerung von Zufriedenheit und Engagement solange, bis ein hohes Niveau erreicht ist • Schaffung einer Kultur des Ausprobierens von digitalen 7 Schaffung neuer Geschäftsideen, neuen Technologien und Tools organisatorischer Einheit für • Installation Digitale Acceleratoren, Inkubatoren und Hubs digitale Innovationen und inkl. Beteiligungen an Start-ups Erneuerung • Die neu geschaffenen Zukunftseinheiten als „ChancenGeneratoren“ für neue Geschäftsmodelle, Technologien, bislang unbefriedigte Kundenbedürfnisse und strategische Partnerschaften verstehen 8 Einsatz von digitalen Tools • Tools für verbesserte Kollaboration und Kommunikation im Unternehmen etablieren • Einsatz von Softwares, die dabei helfen, die besten Talente im Netz aufzuspüren • Konstruktive Auseinandersetzung mit (schlechten) Bewertungen in Arbeitgeberportalen 9 Schrittweise Maßschneide- • Vermeidung von Überforderung bei Kulturarbeit durch rung der Kulturarbeit und angemessene Erwartungen flexibles Ausprobieren • Maßgeschneiderte und wohldosierte Kulturveränderung, die die Organisation nicht überfordert • Flexibles Ausprobieren, was gut oder weniger gut funktioniert und Aussortieren von untauglichen Veränderungsmaßnahmen 10 Zeitbedarf und Anpassung • Kulturveränderungen brauchen Zeit • Nicht alle Einflussgrößen sind direkt durch unternehmerische Entscheidungen beeinflussbar • Sollte sich nach einigen Lernschleifen nach den ersten drei bis sechs Monaten kein neues Verhalten in der Belegschaft zeigen, Überarbeitung der Leitplanken für die Neuausrichtung • Wertvolle Erkenntnisgewinne über Bottom-up-­ Rückkopplung durch Mitarbeiter 5

Merkmale Auflösung von kulturellen Konfliktpunkten statt Hochglanz-­Kulturinitiative

3.6  Digitale Überlegenheit

153

(10) Spitzenplatz „Um ganz vorne im Digitalwettbewerb mitzuspielen, setzen Unternehmenslenker auf die fünf KAFKAPrinzipien: Sie transformieren ihre Unternehmenskultur, sorgen dafür, dass sich ihr Unternehmen schnell anpassen kann, setzen ausgewählte Schlüsseltechnologien strategisch ein, sind ihrem Wettbewerb in puncto Kundennutzen überlegen und verfügen über ein verlässliches Frühwarnsystem, dass unternehmensrelevante Veränderungen frühzeitig erkennt.

154

3  Mit 30 Prinzipien zum Digital Champion

3.6.3 Adaptive Organisation Der technische Fortschritt fordert die Unternehmen heraus, schnell und beweglich zu (re-) agieren. Die Fähigkeit, schnell umstellen zu können und über ein adaptives Organisationssystem zu verfügen, das sich zukünftig schnell umbauen lässt, ist eine ganz entscheidende organisatorische Fähigkeit, um im Zeitalter der sich beschleunigenen Umfeldveränderungen angemessen reagieren zu können. Adaptive Organisationen sind in der Lage, sich schnell und effizient an Markt- und Technologieveränderungen anzupassen. Sie schaffen die notwendigen Voraussetzungen dafür, als Organisation beweglich und wandlungsfähig zu bleiben. Wegen ihrer stetigen Suche und Implementierung des bestmöglichen Betriebssystems begegnen adaptive Unternehmen zukünftigen Veränderungen mit relativ kurzen Reaktionszeiten. Trotz methodischer Flexibilität bleiben sie methodensicher, da sie verstehen, für welche Problemarten welche Methoden und Praktiken geeignet sind. Kurzum: Eine adaptive Organisation iat äußerst flexibel, experimentierfreudig, anpassungsfähig und damit einfach sehr lebendig (Mallow 2019). Ständig im Wandel befindend, balanciert sie den Widerspruch zwischen notwendiger Stabilität und spürbarer Anpassungsfähigkeit gekonnt aus. Und trotz aller gezielt genutzten Freiräume agiert sie planvoll und diszipliniert. Strategische Reorganisationsgeschwindigkeit Eine adaptive Organisation kann eine hohe Veränderungsgeschwindigkeit beim Umbau der Organisation abrufen. Fragen, die sich Unternehmen stellen können, um an volatile, schwer einschätzbare Marktbedingungen anzupassen und an struktureller Agiltiät und Anpassungsgeschwindigkeit zuzulegen, sind: • Wie schnell können wir unser Geschäftsmodell grundlegend anpassen bzw. erneuern? • Wie schnell und durchgreifend sind wir in der Lage, unsere zentralen Geschäftsprozesse anzupassen? • Wie schnell ist es uns möglich, Produkt- bzw. Serviceveränderungen voranzutreiben? • Wie schnell können wir uns von innen heraus anpassen – wie agil und vernetzt arbeiten unsere Strukturen? • Wie schnell können wir organisatorische Einheiten auflösen oder neue bilden? • Wie schnell gelingt es uns, unsere Kostenstrukturen anzupassen? • Wie schnell können wir eine neue Schlüsseltechnologie in unsere Wertschöpfungskette integrieren? • Welche Veränderungsgeschwindigkeit und welches Veränderungsausmaß können wir unserem Unternehmen eigentlich zumuten? Anpassungsleistung mit Augenmaß  Je häufiger Reorganisationen in der Vergangenheit stattfanden, desto weniger erschließen sich den Mitarbeitern die Gründe für eine erneute Umstellung. Daher ist es wichtig, alle betroffenen Mitarbeiter argumentativ nachvollziehbar auf den (nächsten) Change vorzubereiten. Es ist von z­ entraler Bedeutung, dass sich das Veränderungstempo und -ausmaß auf einem für die Organisation angemessenen Level

3.6  Digitale Überlegenheit

155

bewegt, damit die Mitarbeiter die Anpassungsanforderungen gut meistern können. Dies gilt insbesondere für Mitarbeiter, die eine Anpassungsleistung erbringen sollen, die nicht im Bereich ihrer bisherigen Fähigkeiten und Stärken liegt (Koch 2018). Strategische Reaktionsfähigkeit und Veränderungsintelligenz Eine adaptive Organisation verfügt über eine hohe strategische Reaktionsfähigkeit auf Veränderungen der Umwelt. Sie gewinnt an Zukunftsfähigkeit über Veränderungsintelligenz, indem sie auf die Stärkung von Veränderungs- und Erneuerungskompetenz setzt und zwar sowohl auf der organisatorischen als auch auf der individuellen Ebene. Denn erfolgreiche Veränderungen von Organisationen erfordern Veränderungen auf der Ebene des Individuums und individuelle Veränderungen wiederum werden oft erst möglich durch einen förderlichen organisationalen Rahmen (Baltes und Freyth 2017). Adaptivität durch schnelles Lernen aus Fehlern Eine zunehmende Umsetzungsgeschwindigkeit birgt ein größeres Potenzial für Fehler – es bleibt weniger Zeit zur Absicherung. Für adaptive Unternehmen stellt sich somit die Frage, wie sie möglichst schnell aus Fehlern lernen können, um ihren zukünftigen Kurs im Fall einer fehlgeleiteten Lenkung zeitnah zu korrigieren. Hier können kurzzyklisch durchgeführte Lessons Learned und Retrospektiven das organisatorischen Lernen beflügeln.   Adaptivität durch Vernetzung Vernetzte Organisationen sind i. d. R. besser in der Lage, ihre Kunden zu verstehen, ihre Märkte agil zu bearbeiten und ihre Mitarbeiter effizient zu allokieren einzusetzen. Sie legen einen Fokus auf kundennahe Bereiche und stärken kundenverantwortliche Mitarbeiter (Gray und Vander Val 2014). Konkret bedeutet dies, dass sie durch höhere Vernetzungsgrade Kundenbedürfnisse besser bearbeiten und schneller in Erfahrung bringen, was Kunden brauchen oder sich wünschen. Organische, selbstorganisierte Zellenorganisationen können sich deutlich flexibler und anpassungsfähiger als hierarchische Strukturen behaupten. Dabei geht eine höhere Vernetzungsdichte auch mit einer effizienteren Form der Kommunikation und Zusammenarbeit einher.

3.6.4 Fokus auf Schlüsseltechnologien Digitale Überlegenheit mithilfe von digitalen Schlüsseltechnologien aufzubauen, stellt das dritte KAFKA-Prinzip dar. Aufgrund ihrer besonderen Hebelwirkung sind Schlüsseltechnologien nicht nur wichtige Treiber für Produktivitätsgewinne, Betriebskosteneinsparungen, digitale Innovationen, Wachstumsprünge und höhere Unternehmensbewertungen. Sie helfen Unternehmen darüber hinaus, eine starke Marktposition und Wettbewerbsfähigkeit über Differenzierungsvorteile abzusichern. Mit anderen Worten tragen Schlüsseltechnologien dazu bei, den Ausschöpfungsgrad des eigenen Wettbewerbspotenzials zu erhöhen. Ist das eigene Unternehmen in den relevanten Technologiefeldern weiter fortgeschritten als die wichtigsten Wettbewerber, erzielt es eine für sich vorteilhafte Marktsituation.

156

3  Mit 30 Prinzipien zum Digital Champion

Aus diesem Grund setzen Digital Champions auf Technologie-Scouting und halten ihre Technologie-Pipeline gefüllt. Sie bauen ihre Technologiekompetenzen aus und entwickeln Schritt für Schritt technologische Souveränität. Doch damit nicht genug. Zusätzlich bauen sie Brücken zwischen Schlüsseltechnologien und Technologieanwendungen und sorgen dafür, dass Geschäfts- und überlegener Kundennutzen über Technologieeinsatz entstehen. Wichtigste Schlüsseltechnologie: KI Da KI und Daten im Zentrum aller Zukunftstechnologien stehen, fangen Transformationsvorreiter frühzeitig damit an, sich tiefgehend und konsequent mit allen Chancen und Herausforderungen auseinanderzusetzen, die durch die größte Technologie aller Zeiten entstehen (werden). Diejenigen Unternehmen, die  KI in die ureigene Unternehmens-DNA eingewebt haben und von den positiven ökonomischen Effekten durch Technologieeinsatz profitieren, bauen ihre Organisation zum Digital Champion in ihrer Branche aus. Diese Unternehmen sind AI-ready. Bewertung der Zukunftstechnologien Vernetzter, leistungsfähiger und intelligenter  – Technologien werden Geschäftsmodelle und Geschäftsprozesse zukünftig fundamental verändern. Mit der zunehmenden Bedeutung des digitalen Technologiemanagements rücken Technologiestrategien in den Fokus, um die perspektivische Ausrichtung des Technologieportfolios strategisch zu planen und zu steuern. Im Kap. 5 werden die 20 Zukunftstechnologien unserer Zeit dargestellt. Welche davon für das eigene Unternehmen relevant sind und in der Technologiestrategie Berücksichtigung finden sollten, hängt von ganz unterschiedlichen Faktoren ab: wie z. B. der Branche, dem Wettbewerbsumfeld, der Geschäftsstrategie, dem Geschäftsmodell, den Kundenbeziehungen und insbesondere dem geschaffenen Nutzen durch Technologieeinsatz an den wertvollsten Anwendungsfällen. Technologieauswahl variiert mit dem Betrachtungshorizont Zu wissen, welche Technologien zu welchem Zweck und zu welchem Zeitpunkt zu entwickeln oder zu integrieren sind, ist für das Management-Team von zentraler Bedeutung. Unterschiedliche Zeithorizonte verlangen nach unterschiedlichen Technologien. Kurzfristig geht es um Ausbau des bestehenden Kerngeschäfts und Weiterentwicklung der Prozesslandschaft auf der Grundlage von Basis- und Schlüsseltechnologien. Erfahrungsgemäß wird dabei der Wert von Schlüsseltechnologien dann besonders hoch eingeschätzt, wenn sie radikale Verbesserungen in Produkten, Dienstleistungen oder Prozessen versprechen (Albers und Gassmann 2011). Auf mittelfristiger Zeitachse fokussieren sich Unternehmen gewöhnlich auf den Aufbau neuer digitaler Geschäfte und Märkte mithilfe von Schlüssel- und Schrittmachertechnologien. Auf langfristiger Zeitachse werden ausschließlich Schrittmachertechnologien auf Machbarkeit und zukünftige Marktattraktivität ­bewertet, um zukünftige Geschäftspotenziale auszuloten. Wie sich Basis-, Schlüssel- und Schrittmachertechnologien hinsichtlich Lebenszeit, Entwicklungsstufen und Reifegraden unterscheiden, zeigt Abb. 5.1 in Kap. 5.

3.6  Digitale Überlegenheit

157

3.6.5 Kundennutzenüberlegenheit Wer seine Kunden besser versteht als eine Wettbewerber, ist im Vorteil. Für Unternehmen, die eine digitale Überlegenheit entwickeln wollen, ist die fortlaufende Ausrichtung auf Kundenexzellenz Pflicht und das Streben nach Kundenbegeisterung die Kür. Dazu richten sie ihre Organisation konsequent an wenn möglich individualisierten Kundennutzen aus und überprüfen die Güte der erschlossenen Nutzenpotenziale kontinuierlich. Mit den in Tab.  1.3 dargestellten 20  Mehrwertdimensionen können Unternehmen marktüberlegene Kundennutzen kreieren und diese nach Kern- und Nebennutzen unterscheiden. Besser sein im Digitalwettbewerb Noch treffen wir Menschen überwiegend selbst Entscheidungen. Und diese treffen wir rational oder aus dem Bauch heraus. Dabei bewerten wir nach rational-funktionalen, ökonomischen und sozialen Gesichtspunkten und nehmen zusätzlich Emotionen dabei wahr. Wenngleich die individuellen Unterschiede bei der Verarbeitung kognitiver und emotionaler Besonderheiten von Mensch zu Mensch abweichen, erfassen digitalüberlegene Unternehmen die jeweils auf Kundenseite wahrgenommenen Nutzenstärken quantitativ. Anschließend ermitteln sie Durchschnittswerte und vergleichen diese miteinander. Abb. 3.3. beschreibt drei Leitprinzipien mit fünfzehn Ausprägungen, wie Unternehmen überragende digitale Kundenerlebnisse und Kundenbeziehungen realisieren können: • Leitprinzip 1: Kundenerwartungen kennen und übertreffen • Leitprinzip  2: Datenbasierte Kundennutzen schaffen, die das Leben der Kunden verbessern • Leitrinzip 3: Herausragende Kundenbeziehungen aufbauen und managen Digitale Champions sind nicht nur kundenzentrisch ausgerichtet, sondern  setzen die Latte eine Stufe höher. Sie messen die auf Kundenseite wahrgenommen Nutzenstärken quantitativ und lassen ihre Kunden zusätzlich Einschätzungen zu Konkurrenzangeboten abgeben, um komparative Wettbewerbsvorteile abzuleiten. Mit Kundendaten lebenslange Bindungen aufzubauen, ist die eine Seite der Kundenmedaille. Dies besser zu tun als die drei wichtigsten digitalen Wettbewerber in der eigenen Branche, ist die andere. Zusätzlich finden Digital Player heraus, wie sich ein steigender Kundennutzen auf Kundenbindung und Kundenzufriedenheit auswirkt oder – umgekehrt – wie eine höhere Kundenzufriedenheit zu weiteren Zusatznutzen führt. Am Ende gilt es nicht nur besser zu sein als der Digitalwettbewerb, sondern darüber hinaus so lange wie möglich auch besser zu bleiben. Dabei hilft der nachfolgend skizzierte Baustein der Antizipationsintelligenz.

3.6.6 Antizipationsintelligenz Dem Wettbewerb immer einen Schritt voraus sein – oder zwei. Wissen, was die Kunden brauchen, noch bevor sie es selbst wissen. Verschiebungen von Kundenerwartungen oder

158

3  Mit 30 Prinzipien zum Digital Champion

Wettbewerbskräften oder Technologiesprüngen erkennen. Über wichtige Veränderungen früher als andere Bescheid zu wissen, drückt sich in Antizipationsintelligenz aus. Intelligent antizipierende Unternehmen sind in der Lage, bedeutsame Umfeldveränderungen verlässlicher vorauszusehen als ihre wichtigsten Marktteilnehmer. Dazu nutzen sie Daten strategisch und setzen auf künstlich intelligent antizipierende Algorithmen, kontinuierliches Umfeld-Monitoring und leistungsfähige Tools. Überlegen antizipierende Unternehmen legen Wert auf hohe Datenqualität, aber auch Datenquantität. Sie erfassen Daten breit, indem sie viele unterschiedlichen Datenbasen anzapfen und über Analysetools nutzbar machen. Liegen hinreichende Daten in Echtzeit vor, erkennen die Unternehmen über leistungsfähige Analysetools auffällige Muster, die Aufschlüsse über wichtige Trend-, Markt- und Technologieveränderungen geben. Und dies wenn möglich noch bevor es die eigenen Wettbewerber wissen. Intelligent antizipierende Organisationen verfügen folglich über ein fortschrittliches daten- und softwarebasiertes Frühwarnsystem, das Antworten auf die Frage gibt, wann was vermutlich wann als relevant einzustufen ist und zusätzlich alle dazugehörigen Annahmen aufzeigt. So werden wiederholende Lagebewertungen für Unternehmen zur automatisierten Routine. Datenerfassung des Frühwarnsystems geht über Kunden- und Wettbewerbsdaten hinaus Die Geschwindigkeit, mit der neue Ereignisse die Zukunft prägen, wird dramatisch ansteigen. Eine hohe organisatorische Reaktionsfähigkeit und Reaktionsgeschwindigkeit werden zu neuen strategischen Assets auf den Chefetagen von digitalen Champions Ein Frühwarnsystem  hilft Unternehmen, die enorme Menge von potenziell richtungsweisenden Daten aus unterschiedlichen Quellen auszuwerten und berücksichtigt dabei über Kunden- und Wettbewerbsdaten hinausgehend weitere Quellen: Technologietrends, Stimmungsveränderungen im Web, Suchtrends, Angebots- und Servicetrends, ökonomische, ökologische oder politische Trends, Geschäftsmodellinnovationen, Start-ups, Patentanmeldungen oder neue Studien. Liegen Hinweise auf potenziell unternehmensrelevante Veränderungen vor, gibt das System automatisierte Rückmeldungen  – beispielsweise in Form von Ampelfarben oder Relevanzeinschätzung auf Skalenniveau von 1 bis 10. Auf diese Weise können Unternehmen auf spannende und relevante Marktveränderungen reagieren. Künstliche Intelligenz als Motor der prädiktiven und präskriptiven Analytik Prognosealgorithmen der nächsten Generationen werden die gigantischen Datenberge verlässlicher als heute durchforsten können und auf Basis von Datenmodellen präzise Voraussagen darüber treffen, wie sich bestimmte unernehmensspezifische Parameter in der Zukunft entwickeln. Zukunftsgestaltende Unternehmen setzen  hierfür leistungsfähige ­Datenmanagement- und Analytics-Tools ein, die innovative Methoden der Informationsverarbeitung mit maschinellem Lernen, künstlich neuronalen Netzen sowie Simulationsverfahren nutzen, um die Halbwertzeit und Marktdurchdringungsgeschwindigkeit von neuen Strömungen relativ verlässlich vorauszusagen. In der Folge verbessert sich die Prognosequalität bzw. Antizipationsgüte Monat für Monat – so entsteht künstliche Antizipationsintelligenz.

Literatur

159

Neben dem Einsatz von Predictive Analytics (Was wird passieren) und Vorhersagen über die Wahrscheinlichkeit von zukünftigen Strömungen und Ereignissen werden Unternehmen zukünftig verstärkt auch Prescriptive Analytics einsetzen und nicht nur der Frage nachgehen, wie sich verschiedene Handlungsoptionen auf ein zukünftig wahrscheinliches Ereignis auswirken  werden, sondern auch,  welches die besten  Vorgehensweisen  und Handlungsoptionen aus heutiger Sicht sind. Künstlich intelligente Antizipation wird die Qualität der Vorhersagen optimieren und Unternehmen dazu befähigen, die besten Pro­ blemlösungsoptionen  zu kennen, um relative  Wettbewerbsvorteile zu erzielen und der nachfolgenden Konkurrenz einen Schritt voraus zu sein – oder zwei.

Literatur Albers, Sönke; Gassmann, Oliver (2011): Handbuch Technologie- und Innovationsmanagement: Strategie – Umsetzung – Controlling, Springer Gabler, Wiesbaden Anderson, David J. (2011): Kanban: Successful Evolutionary Change for Your Technology Business, Blue Hole Press, Seattle Appelfäller, Wieland; Feldmann, Carsten (2018): Die digitale Transformation des Unternehmen: Systematischer Leitfaden mit zehn Elementen zur Strukturierung und Reifegradmessung, Springer Gabler, Wiesbaden Backovic, Lazar (2018): Ziele und Schlüsselergebnisse – die neuen Wunderwaffen moderner Führungskräfte, https://www.handelsblatt.com/unternehmen/beruf-und-buero/the_shift/okr-methode-ziele-und-schluesselergebnisse-die-neuen-wunderwaffen-moderner-fuehrungskraefte. Zugegriffen: 15.04.2019 Baltes, Guido; Freyth, Antje (2017): Veränderungsintelligenz: Agiler, innovativer, unternehmerischer den Wandel unserer Zeit meistern, Springer Gabler, Wiesbaden Bartlett, Christopher; Ghoshal, Sumantra (1990): Internationale Unternehmensführung, Campus Verlag, Frankfurt Binner, Hartmut (2017): Organisation 4.0: Prozessdigitalisierung verbindet reale und virtuelle Prozesswelten, gfo-BPM-Symposium, CeBIT 2017 Brandes-Visbeck, Christiane (2018): Über eine neue Fehlerkultur zum Erfolg im digitalen Wandel, https://upload-magazin.de/blog/21738-fehlerkultur. Zugegriffen: 10.02.2019 Becks, Jana (2017): Eindeutige Ansagen Warum die Führung virtueller Teams (k)ein neues Rollenverständnis erfordert. In: Personalführung 11, S. 4–5 Birkinshaw, Julian; Gibson, Christina (2004): Building Ambidexterity Into an Organization. In: MIT Sloan Management Review 45 (4), S. 47–55 Buchholz, Ulrike; Knorre, Susanne (2019): Interne Kommunikation und Unternehmensführung, Springer Gabler, Wiesbaden Buhse, Willms (2012): Changing the Mindset – Die Bedeutung des Digital Leadership für die Enterprise 2.0-Strategieentwicklung, in: Lembke, Soyez (Hrsg.), Digitale Medien in Unternehmen, Springer, Berlin, S. 237–252 Buhse, Willms (2014): Management by Internet: Neue Führungsmodelle für Unternehmen in Zeiten der digitalen Transformation, Plassen Verlag, Kulmbach Burkhardt, Christoph (2018): Innovationen verstehen – Trends aus dem Silicon Valley, in: Worksheet, Leaders Academy, Gedankentanken, S. 4–11 Capgemini (2017): The Disconnected Customer: What digital customer experience leaders teach us about reconnecting with customers. https://www.capgemini.com/wp-content/uploads/2017/07/ the_disconnected_customer-what_digital_customer_experience_leaders_teach_us_about_reconnecting_with_customers.pdf. Zugegriffen: 15.08.2018

160

3  Mit 30 Prinzipien zum Digital Champion

Colfax, Richard; Santos, Annette; Diego, Joann (2009): Virtual Leadership: A green possibility in critical times but can it really work?, in: Journal of International Business Research, 8(2), S. 133–139 Creusen, Utho; Eschemann, Nina-Ric; Johann, Thomas (2010): Positive Leadership, Psychologie erfolgreicher Führung, Erweiterte Strategien zur Anwendung des Grid-Modells, Gabler, Wiesbaden Davies, Anna; Fidler, Devin; Gorbis, Marina (2011): Future Work Skills 2020, Palo Alto, California, Institute for the Future for University of Phoenix Research Institute Demary, Vera et al. (2016): Digitalisierung und Mittelstand – eine Metastudie, IW-Analysen, Nr. 109, Institut der deutschen Wirtschaft, Köln Diehl, Andreas (2018): Digital L eadership – Digitale Führungskompetenz als Voraussetzung für erfolgreiche Digitalisierung. https://digitaleneuordnung.de/blog/digital-leadership. Zugegriffen: 17.08.2018 Dueck, Gunter (2019): DD335: Übersteuerungsmanagement, https://www.omnisophie.com/ dd335-uebersteuerungsmanagement-februar-2019. Zugegriffen: 01.03.2019 Duwe, Julia (2016): Ambidextrie, Führung und Kommunikation. Wiesbaden, Springer Gabler Eggers, Bernd; Hollmann, Sebastian (2018): Digital Leadership  – Anforderungen, Aufgaben und Skills von Führungskräften in der „Arbeitswelt 4.0“, in: Keuper, Schomann, Sikora, Wassef (Hrsg.): Disruption und Transformation Management, 43–68. Fountaine, Tim; McCarthy Brian; Saleh, Tanim (2019): Wie Unternehmen KI richtig nutzen, Havard Business Manager, 12/2019, S. 72-84. Gassmann, Oliver; Sutter, Philipp (2016): Digitale Transformation in Unternehmen gestalten, Carl Hanser Verlag, München Gaub, Maximilian (2017): Wie man eine Fehlerkultur in Unternehmen entwickelt, https://www.focus.de/digital/experten/digitaler-wandel-wie-man-eine-fehlerkultur-in-unternehmen-entwickelt_id_7791112. Zugegriffen: 10.04.2019 Gaycken, Sandro; Hughes, Rex (2015): Cyberreadiness in kleinen und mittleren Unternehmen, Studie Digital Society Institute Berlin, ESMT, Berlin Gottwald, Marlene (2018): Neue Ökosysteme durch Digitalisierung und Vernetzung – Eine Herausforderung auch für die Wissenschaft, https://transfermagazin.steinbeis.de/?p=2099. Zugegriffen: 12.11.2018 Glaser, Norman (2017): Wie digital ist dein Mindset?, https://www.markenrebell.de/2017/12/27/digitales-mindset/#.XNsizcgzZnI. Zugegriffen: 10.05.2019 Grabmeier, Stephan (2018): Ambidextrie als Organisationsprinzip – Innovation und Kerngeschäft verbinden, https://grabmeier.kienbaum.com/2018/03/03/ambidextrie-als-organisationsprinzip-innovationen-und-kerngeschaeft-verbinden. Zugegriffen: 18.07.2018 Grandpierre, Axel (2017): Virtuelle Teams brauchen eine neue Führung, in: HRM, Weiterbildung, 1/2017, S. 30–33 Gray, Dave; Vander Val (2014): The Connected Company, O’Reilly & Associates, Sebastopol, Kalifornien Grolman, Florian (2018): Kulturwandel – 6 wirksame Schritte, um Unternehmenskultur dauerhaft zu verändern, https://organisationsberatung.net/kulturwandel-kulturveraenderung-unternehmenskultur-veraendern. Zugegriffen: 20.04.2019 Haertlein, Marcel (2016): Digital Governance: Digitalisierung richtig angehen, https://www.linkedin.com/pulse/digital-governance-digitalisierung-richtig-angehen-marcel-haertlein. Zugegriffen: 16.04.2019 Hammermann, Andrea; Stettes, Oliver (2016): Qualifikationsbedarf und Qualifizierung. Anforderungen im Zeichen der Digitalisierung, IW Policy Paper, 03/2016, Köln Haubold, Sven; Billo, Tina (2019): Datensicherheit und -verfügbarkeit anno 2019, https://www.storage-insider.de/datensicherheit-und-verfuegbarkeit-anno-2019-a-786942. Zugegriffen: 20.05.2019 Haupt, Reinhard (2004): Patentbezogene Messung der Technologiestärke von Unternehmen, in: Braßler, Axel; Corsten, Hansen (Hrsg.), Entwicklungen im Produktionsmanagement, München, S. 421–441 Hoffmeister, Christian (2015): Digital Business Modelling, Carl Hanser Verlag, München Hölscher, Bert (2017): Digitales Dilemma, Tredition Verlag, Hamburg

Literatur

161

Jodbauer, Herbert (2017): Digitale Transformation der Wertschöpfung, Kohlhammer Verlag, Stuttgart Kaczmarek, Joël (2016): Was steckt hinter OKR und wie wird es implementiert?, https://www.digitalkompakt.de/news/objectives-and-key-results-okr. Zugegriffen: 13.04.2019 Keller, Maren (2017): Digitale Prozesse – 8 Stolpersteine für Unternehmen im digitalen Wandel, https://it-service.network/blog/2017/04/18/digitale-prozesse. Zugegriffen: 15.05.2019 Kemp, Thomas (2017): OKR – Googles Wunderwaffe für den Unternehmenserfolg oder: Raus aus der Komfortzone, https://t3n.de/news/okr-google-wunderwaffe-valley-ziele-530092. Zugegriffen: 11.04.2019 Kempfle, Winfried (2014): Markttrendanalysen – Ziele und Vorgehensweisen, http://blog.strategie-­ und-­planung.de/markttrends-analysen-ziele. Zugegriffen: 03.04.2019 Koch, Axel (2018): „Change mich am Arsch“: Jedes zweite Großunternehmen steckt in einer Restrukturierung, https://www.humanresourcesmanager.de/news/change-mich-am-arsch-umstrukturierungen-im-unternehmen. Zugegriffen: 15.04.2019 Konrad, Daniel (2017): Digital Leadership: Warum Mitarbeiter ein digitales Mindset brauchen, https://t3n.de/news/digital-leadership-mitarbeiter-831277. Zugegriffen: 20.04.2019 Kotter, John (2012): Accelerate!, Harvard Business Manager, November 2012 Issue, https://hbr. org/2012/11/accelerate. Zugegriffen: 30.05.2019 Longden, Roger (2018): Setzt Performance Management persönliche OKRs für jeden voraus?, https://www.workpath.com/magazine/persoenliche-okrs-fuer-jeden. Zugegriffen: 12.04.2019 Mallow, Birgit (2019): Beyond Agile – die adaptive Organisation, https://www.mallow-consulting. de/news-article/beyond-agile-die-adaptive-organisation. Zugegriffen: 01.06.2019 Meinhardt, Stefan; Popp, Karl Michael (2018): Digitale Geschäftsmodelle, in HMD Praxis der Wirtschaftsinformatik, April 2018, Volume 55, Issue 2, S. 229–230 Mehrtens, Christian (2018): Die digitale Transformation beginnt im Kopf, https://www.computerwoche.de/a/die-digitale-transformation-beginnt-im-kopf,3544525. Zugegriffen: 04.05.2019 Moore, Susan (2018): How to Measure Digital Transformation Progress, https://www.gartner.com/ smarterwithgartner/how-to-measure-digital-transformation-progress. Zugegriffen: 18.04.2019 Nominacher, Bastian (2019): Process Mining meets RPA: In vier Schritten zur Prozessautomatisierung, https://www.computerwoche.de/a/in-vier-schritten-zur-prozessautomatisierung,3544858. Zugegriffen: 23.05.2019 O’Reilly, Charles; Tushman, Michael (2016): Lead and Disrupt: How to Solve the Innovator’s Dilemma, Combined Academic Publisher, North Yorkshire Osterwalder, Alexander; Pigneur, Yves (2010): Business Model Generation, Campus Verlag, Frankfurt Penning, Stephan (2017): Agil, digital, erfolgreich – wie Kultur-Veränderung im Unternehmen gelingt, https://www.manager-magazin.de/unternehmen/artikel/digitaler-wandel-tipps-zur-veraenderung-der-unternehmenskultur-a-1151186-7. Zugegriffen: 21.04.2019 Petz, Ingo (2018): Digitale Transformation – Geschäftsmodelle in der Industrie im Umbruch – Digitalisierung der Wertschöpfungskette als Chance, in hi!tech Innovationsmagazin 01/2018, S. 14–17 Pundt, Alexander; Nerdinger, Friedemann; Martins, Erko; Horsmann, Claes (2007): Beteiligungsorientierte Unternehmenskultur und Innovation, Zeitschrift Organisationsentwicklung ZOE, Heft 3/2017, S. 22–30 Raisch, Sebastian; Birkinshaw, Julian (2008): Organizational ambidexterity: Antecedents, outcomes, and moderators, in: Journal of Management, 34 (3), S. 375–409 Rigby, Darrell; Sutherland, Jeff; Noble, Andy (2019): Das agile Unternehmen, Harvard Business Manager 01/2019, S. 32–42 Rouse, Margaret (2018): IT Transformation, https://searchcio.techtarget.com/definition/IT-transformation. Zugegriffen: 25.05.2019 Rüsing, Eduard (2016): Wie smarte Produkte Unternehmen verändern, https://www.computerwoche.de/a/wie-smarte-produkte-unternehmen-veraendern,3226490. Zugegriffen: 15.02.2019 Schäfer, Dirk; Rossmann, Alexander; Vogel, Ricarda; Wichmann, Kai (2015): Digital Transformation Report 2015, WirtschaftsWoche & neuland

162

3  Mit 30 Prinzipien zum Digital Champion

Scheller, Stefan (2017): Digitales Mindset – was ist das und welche Bedeutung hat es für Personaler und Bewerber?, https://persoblogger.de/2017/03/19/definition-digitales-mindset-was-ist-das-und-welche-bedeutung-hat-es-fuer-personaler-und-bewerber. Zugegriffen: 10.03.2019 Schinko, Christian (2019): Datenmonetarisierung: Mit Daten Geld verdienen, https://www.cancom. info/2019/01/datenmonetarisierung-mit-daten-geld-verdienen. Zugegriffen: 25.05.2019 Schulz, Christopher (2018): Was sind digitale Geschäftsmodelle?, https://www.mosaiic.com/sind-digitale-geschaeftsmodelle-51-gaengige-definitionen-aus-praxis-wissenschaft. Zugegriffen: 15.11.2018 Schulze, Mike; Nasca, Debora (2018): Kennzahlen zur Steuerung der Digitalisierung, https://www. haufe.de/finance/finance-office-professional/kennzahlen-zur-steuerung-der-digitalisierung-rahmenkonz-3-spezifische-kennzahlen-zur-steuerung-der-digitalen-transformation_idesk_ PI11525_HI11805831. Zugegriffen: 10.03.2019 Schweichhart, Karsten (2019): Wie Datenmarktplätze die Datenökonomie treiben, https://www.it-­ zoom.de/it-director/e/wie-datenmarktplaetze-die-datenoekonomie-treiben-22679. Zugegriffen: 30.05.2019 Sherif, Karma; Menon, Nirup (2004): Managing Technology and Administration Innovations: Four Case Studies on Software Reuse, in: Journal of the Association for Information Systems, Vol. 5, Issue 7, S. 247–281 Sörensen, Dagmar (2018): Agiles Arbeiten – was ist das?, https://digitaler-mittelstand.de/business/ ratgeber/agiles-arbeiten-was-ist-das-49878. Zugegriffen 29.12.2018 Stach, Thomas (2009): Instrumente zur Führung, Vertrauensbildung und Mitarbeiterorientierung, https://www.dgfp.de/hr-wiki/Vom_Leitbild_zum_Zielbild.pdf. Zugegriffen: 15.04.2019 Stalder, Felix (2016): Kultur der Digitalität, Suhrkamp Verlag, Berlin Stephan, Michael; Kerber, Wolfgang (2010): „Ambidextrie“: Der unternehmerische Drahtseilakt zwischen Ressourcenexploration und -exploitation, Jahrbuch Strategisches Kompetenz-­ Management, Band 4, Rainer Hampp Verlag, München Strube, Dominik (2018): Digitale Dienstleistungen im Auto sind kein Selbstläufer, https://www. springerprofessional.de/industrie-4-0/innovationsmanagement/digitale-dienstleistungen-im-auto-sind-kein-selbstlaeufer-/15960966. Zugegriffen: 01.05.2019 Teiselmann, Rüdiger (2018): Warum es deine Digital Governance braucht, https://diligent.com/de/ blog/digitale-corporate-governance. Zugegriffen: 01.07.2019 Vogels, Werner (2017): Wartet nicht auf Perfektion – lernt aus euren Fehlern!, https://www.wiwo.de/ erfolg/management/digitalisierung-wartet-nicht-auf-perfektion-lernt-aus-euren-fehlern/19955856. Zugegriffen: 20.03.2019 Von Frieling, Mareike (2016): Wie kann der digitale Wandel in der Produktwelt gelingen?, https:// idw-online.de/de/news656065. Zugegriffen: 20.04.2019 Westermann, George et al. (2012): The Digital Advantage: How Digital Leaders their peers in every industry, Capgemini Consulting and MIT Center for Digital Business, https://www.capgemini. com/resources/the-digital-advantage-how-digital-leaders-outperform-their-peers-in-every-industry. Zugegriffen: 30.07.2018 Wachtel, Sabina, Etzel, Stefanie (2019): Jeder kann wirken. Von Executives lernen: auftreten, antworten, reden, Springer, Wiesbaden Widmer, Annegret (2017): Agile ist Wunschdenken  – Hybrid ist die Realität, https://meisterplan. com/de/blog/agile-vs-hybrid. Zugegriffen: 25.11.2018 Wolan, Michael (2013): Digitale Innovation: Schneller. Wirtschaftlicher. Nachhaltiger, Business Village, Göttingen Zabel, Christian; Schmitz, Henrik (2019): Digitale Transformation gestalten. Sechs Thesen zur Wirkung der Executive Communication in Veränderungsprozessen, Springer Gabler, Wiesbaden Zach, Julian (2017): Datenklassifizierung – wertvolle Daten schützen, https://www.computerweekly.com/de/meinung/Datenklassifizierung-Wertvolle-Daten-schuetzen. Zugegriffen: 26.05.2019

4

Das digitale Transformationshaus der nächsten Generation

Zusammenfassung

Die digitale Transformation der nächsten Generation ist granularer und vielschichtiger in der Umsetzung als bisher. Zudem hat sie kein Ende mehr – sie findet kontinuierlich statt: Nach der Transformation ist vor der Transformation. Das stetige organisatorische Anpassen an Markt- und Technologieveränderungen wird zum nachhaltigen Erfolgsfaktor. Über den zu bisherigen Ausführungen hinaus gehenden und  weiter gefassten Rahmen bei Transformationsdisziplinen können Unternehmen ihre Transformationsarbeit differenzierter ausführen und innerhalb der einzelnen Disziplinen wirksamer managen. Das digitale Transformationshaus der nächsten Generation umfasst drei Ebenen mit insgesamt 15  Räumen, um die Komplexität und Dynamik  des Wandels in seiner gestiegenen Breite, Tiefe und Geschwindigkeit gesamtheitlich zu erfassen und ihr erfolgreich zu begegnen. Der übergreifende Orientierungsrahmen ist universell und branchenübergreifend. Er schließt sowohl Unternehmen ein, die digital noch am Anfang stehen, als auch Unternehmen, die bereits in ihrer digitalen Transformation fortgeschritten sind.

Laut einer Untersuchung der Kollegen von BCG aus dem Jahr 2018 verstehen sich v. a. diejenigen Unternehmen als Vorreiter der digitalen Transformation, die mehr als 5 % ihrer Betriebskosten in Digitalisierung und IT investieren, über 10 % ihrer Mitarbeiter digital befähigt haben und überdies eine digitale Kultur pflegen. Damit nicht genug: Für die erfolgreiche digitale Transformation gibt es keine Patentlösung. Unternehmen gehen unterschiedliche Wege, wenn sie Transformation als ganzheitlichen Prozess verstehen und umsetzen. Damit Manager ihr Unternehmen erfolgreich durch den digitalen Wandel im beginnenden Zeitalter der KI navigieren können, benötigen sie richtungsgebende Ankerpunkte für den schrittweisen Umbau der Organisation.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Wolan, Next Generation Digital Transformation, https://doi.org/10.1007/978-3-658-24935-9_4

163

164

4  Das digitale Transformationshaus der nächsten Generation

Abb. 4.1  Das digitale Transformationshaus der nächsten Generation

Das hier vorgestellte Transformationshaus für die digitale Transformation der nächsten Generation beschreibt einen praxisbewährten Bezugsrahmen mit Ankerpunkten für die erfolgreiche Umsetzung der Veränderungsprozesse in den kommenden Jahren (s. Abb. 4.1). Es versteht sich als langjährig erprobtes ganzheitliches Rahmenwerk, das flexibel in seiner Anwendung ist. Ganz bewusst wurde die Symbolik ein Hauses gewählt. Denn tatsächlich lässt sich die digitale Transformationsarbeit mit dem Aufbau oder Umbau einer Hausarchitektur vergleichen. Dabei ersetzt sie bisher physische, unternehmerische Attribute durch digitale und erweitert diese zusätzlich um digitale Potenziale. Transformationsmodell der nächsten Generation Im Unterschied zu bisherigen Transformationsmodellen der 2010er-Jahre ist das Transformationshaus der nächsten Generation umfangreicher ausgestattet. Statt wie bisher sechs oder acht Transformationsdisziplinen zu managen, sind es bei nun zwölf Disziplinen zuzüglich der Basisdisziplinen und den Disziplinen für kontinuierliche Überlegenheit.

4  Das digitale Transformationshaus der nächsten Generation

165

Stehen Unternehmen digital noch am Anfang, bedeutet die Expansion auf mehr Disziplinen eine größere Kraftanstregung, die zu stemmen ist. Mit Blick auf den steigenden Veränderungs- und Erneuerungsdruck durch die bevorstehenden technologischen Umwälzungen in den 2020er-Jahren und die zahlreichen, seit Jahren digital transformierenden Branchen erscheint ein differenziertes, breiter gefächertes Verständnis von Transformation als unvermeidlich. Das zweistufige digitale Transformationsfundament Jede Transformation beginnt mit der Erstellung eines soliden Fundaments oder Rahmens für Veränderungsprozesse. Das Fundament hat die primäre Aufgabe, die Lasten des Transforma­ tions prozesses aufzunehmen und den Folgeaktivitäten Stabilität zu geben. Gemeint ist damit eine einführende, ganzheitlich ausgerichtete Reifegrad- und Umfeldanalyse. Hier werden die Grundsteine gelegt, für die Ausrichtung einer modernen wettbewerbs- und zukunftsfähigen Organisation im künstlich intelligenten Zeitalter. Die bei der Standortbestimmung ermittelten digitalen Reifegrade zeigen, auf welchen digital fortgeschrittenen Niveaus sich die Gesamtorganisation befindet. Darüber hinaus gibt die digitale Umfeldanalyse eine verlässliche Einschätzung zum unternehmerischen Umfeld. Die digitale Standortbestimmung ist alternativlos und stets der erste Schritt jeder soliden und ernsthaft geplanten Transformationsreise. Mit ihrer Innen- und Außenbetrachtung bildet sie das Fundament mit Startpunkten für erfolgreiche Wandlungsprozesse innerhalb des Unternehmens. Ein weiterer grundlegener und obligatorischer Transformationsbaustein ist ein hinreichendes Digitalverständnis auf der Chefetage. Top-Manager haben in den 2020er-­ Jahren gar keine andere Wahl mehr, als digital vollumfassend zu verstehen und digital zu handeln. Gemeint ist damit auch, warum gerade KI die Hauptrolle zukünftiger technologie-­ induzierte Veränderungen inne hat. Ein breites und tiefes Digitalverständnis auf der Managementebene führt zu einer guten Grundlage für viele gute strategische Transformationsentscheidungen. Mit anderen Worten wissen digital-affine Top-Manager, wie sich die digitale Transformation von bisherigen Change-Programmen unterscheidet, welche Kräfte warum beschleunigend wirken und an welchen digitalen Transformationsstellschrauben sie drehen müssen, um den kontinuierlichen Wandel souverän zu managen. Solange das Digitalverständnis auf der Chefetage unzureichend ausgeprägt ist, laufen Top-Manager Gefahr, Ressourcen  zu verschwenden, Potenziale zu verschenken und Wettbewerbsvorteile zu ignorieren. Die zwölf digitalen Transformationsräume Im Mittelteil des digitalen Transformationshauses befinden sich zwölf Transformationsräume. Jeder Raum steht für eine erfolgskritische Transformationsdisziplin – angefangen bei der Digitalstrategie bis hin zum digitalen Transformationsmanagement. Innerhalb dieser Transformationsräume sind Hunderte richtungsweisende Entscheidungen zu treffen. Digitale Orchestratoren und Transformationsmanager stellen sich unter anderem folgenge Fragen:

166

4  Das digitale Transformationshaus der nächsten Generation

• Wie digital ist unsere Organisation Stand heute innerhalb der transformationsrelevanten Disziplinen („Räume“) ausgeprägt? • Welche Räume bedürfen zukünftig unsere größte Aufmerksamkeit? • Auf wie viele Räume konzentrieren wir uns insgesamt? • Wie groß sind die jeweiligen Räume angelegt – wie viele Ressourcen fließen hinein? • Wie entwickeln wir die fokussierten Räume inhaltlich, methodisch und messbar (weiter)? • Welche Teams brauchen wir in welchen Räumen? Bei der Transformation erfahren nicht alle zwölf Räume die gleiche Aufmerksamkeit. Verfügt ein Unternehmen beispielsweise über bereits fortgeschritten digitalisierte Prozesse, so ist dieser Bereich u. U. schon recht gut aufgestellt und bedarf im direkten Vergleich zu anderen Räumen weniger Managementaufmerksamkeit. Ist dagegen beispielsweise die digitale Attitüde  bzw. das digitale Mindset noch schwach im Unternehmen ausgeprägt, besteht Handlungsbedarf, sich mit dieser Disziplin intensiver auseinanderzusehen. Bei unseren Kunden identifizierenn wir häufig nach Abschluss der Potenzialanalyse im ersten Schritt drei bis maximal sechs Transformationsdisziplinen und leiten darin potenzielle Handlungsfelder für die weiteren strategischen Überlegungen ab. Das digitale Transformationsdach für digitale Überlegenheit Im oberen Teil schließt das digitale Transformationshaus mit dem Dachgeschoss für digitale Überlegenheit im Wettbewerb ab. Darin befindet sich der Raum für strategische Leitprinzipien zur erfolgreichen Gestaltung und Steuerung einer  kontinuierlichen digitalen Transformation mit dem Ziel, eine herausragende Wettbewerbsposition aufzubauen und Marktanteile auszubauen. Das in Abschn. 3.6. beschriebene Steuerungsmodell KAFKA schafft mit seinen fünf Kernelementen die Basis, um digitale Überlegenheit im Wettbewerb zu entwickeln und diese langfristig aufrechtzuerhalten.

5

Das digitale Technologierad der nächsten Generation

Zusammenfassung

Um ihr Geschäftsmodell weiterhin erfolgreich zu betreiben, benötigen Unternehmen deutlich ausgeprägtere Technologiekompetenzen als seit in den vergangenen 20 Jahren.  Noch nie gab es so viele unterschiedliche, miteinander kombierbare Technologien  und damit ein so  schwer zu durchschauendes, branchenumwälzendes  Feld  wie heute. Für die Chefetage birgt diese rasch voranschreitende Entwicklung von Technologien Chancen und Risiken zugleich. Als Business Technologies verstandene Technologien werden zum sicheren Wachstumsmotor, wenn sie bei richtigem Einsatz Effizienzreserven ausschöpfen, Unternehmen zum besseren „Kundenversteher“ befähigen und Innovationen ermöglichen. Sie werden zur Bedrohung, wenn sie sich in der eigenen Branche schneller als erwartet ausbreiten und den Wettbewerbs- und Anpassungsdruck erhöhen. Im Transformationskontext sprechen wir insbesondere von 20 Zukunftstechnologien, bei denen eine als Supertechnologie im Zentrum vor  allen anderen steht: Künstliche Intelligenz. Die universell integrierbare Supertechnologie kann jede andere Technologie in ihrer Leistungsfähgikeit verbessern und ökonomisch veredeln. Damit wird KI zum größten Effizienz- und Innovationstreiber des digitalen Zeitalters. Im hier vorgestellten Technologierad der nächsten Generation werden alle 20 Technologien in einem Modell zusammengeführt. Aufgeteilt in Basis-, Schlüssel- und Schrittmachertechnologien umspannen sie einen ganzheitlich aufgefächerten Bezugsrahmen, der Unternehmen zur Verfügung steht, um eine robuste und zukunftsfähige Marktsituation zu entwickeln. Wenden Unternehmen  KI und weitere Technologien richtig  an, sind sie dem Wettbewerb weit voraus, begeistern ihre Kunden, steigern ihren Unternehmenwert und ihre Profitabilität und können  kontinuierlich in weitere  Technologien,  Wettbewerbsvorteile und Innovationen investieren.

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Wolan, Next Generation Digital Transformation, https://doi.org/10.1007/978-3-658-24935-9_5

167

168

5  Das digitale Technologierad der nächsten Generation

Von der Schrittmachertechnologie zur Basistechnologie Die Lebenszeit von Technologien ist endlich. Während ihres Lebenszyklus durchlaufen sie verschiedene Phasen. Eine neue Technologie einläutende  Schrittmachertechnologie weist noch ein sehr frühes Entwicklungsstadium auf. Sie steht noch am Anfang, hat aber bereits einen Anwendungsbezug und das Potenzial, zu einem zukünftigen Zeitpunkt bedeutsam zu werden. Da sie möglicherweise erst in fünf oder zehn Jahren ausgereift sein wird, ist ihre Zukunft ungewiss. Bei Schrittmachertechnologien können sich selbst erfahrene Analysten in ihren Prognosen irren, wenn aufstrebende Technologien, die zunächst noch weit entfernt schienen, durch überraschende Technologiesprünge plötzlich für Unternehmen relevant werden. Jeder erinnert sich an die große Strahlkraft von Apple-­Produkten, die Ende der 2000er-Jahre die ganze Welt veränderten. Steve Jobs setzte dabei auf verschiedene technologische Innovationen und deklassierte seine Wettbewerber, die mehrere Jahre brauchten, um technologisch aufzuholen. Beispiele für heutige Schrittmachertechnologien finden sich bei Quantencomputern, Nanotechnologien oder im Bereich der Neuro- und einigen Gesundheitstechnologien. Setzen führende Unternehmen eine aufstrebende Technologie verstärkt kommerziell ein und etablieren damit einen neuen Marktstandard, wird diese zur Schlüsseltechnologie. Diese hat bereits viele Anwendungsbezüge. Ihre Hebelwirkung auf die weitere Entwicklung im entsprechenden Technologiesektor und ihr Einfluss auf die Wettbewerbsfähigkeit sind groß. Unternehmen ohne Zugang zu dieser Technologie lassen Wettbewerbsvorteile außer Acht. Beispielhafte heutige Schüsseltechnologien sind künstliche Intelligenz, fortgeschrittene (Software-)Robotik, kognitive Assistenzsysteme, Internet der Dinge, Sensortechnologien, digitale Zwillinge oder Edge Computing. Hat sich eine Schlüsseltechnologie bereits zum gängigen Marktstandard weiterentwickelt, ist sie allgemein erprobt und weltweit etabliert, wird sie zur Basistechnologie. Da sie bereits die meisten Wettbewerber einsetzen, ist ihr Differenzierungspotenzial vergleichsweise gering (Klein 2013). Für die Wirtschaft selbst sind Basistechnologien von enormer Wichtigkeit. Beispiele finden sich bei Cloud Computing, Mobiltechnologien oder sozialen Netzwerken. Abb. 5.1. zeigt die verschiedenen Technologiereifephasen im Kontext der Ausschöpfung von Wettbewerbspotenzialen.

1, 2 und 3: Die dritte Welle der Digitalisierung hat begonnen Bei der ersten Welle der Digitalisierung wurde in den 1990er-Jahren das Internet a­ ufgebaut und die hierfür notwendige Infrastruktur in Form von Netzwerken, Servern und Software geschaffen. In den 2000er-Jahren kamen Technologien wie Cloud Computing, mobile

Abb. 5.1  Technologielebenszyklus (in Anlehnung an Schuh und Klappert 2011)

5  Das digitale Technologierad der nächsten Generation

169

Endgeräte und Apps, Social Media oder Data Analytics bei der zweiten Welle der Digitalisierung hinzu. In dieser Phase erfuhren die heutigen Internetgiganten Google, Amazon, Facebook, Twitter und Google enormes Wachstum. Mittlerweile befinden wir uns am Anfang der dritten Welle der Digitalisierung, die durch ein wesentlich breiteres Technologiespektrum und v. a. auch tiefere Technologien gekennzeichnet ist. Sogenannte Deep Techs wie KI, Internet der Dinge oder Augmented und Virtual Reality beginnen, die Wirtschaft stärker zu prägen, als wir es bisher erlebt haben. Lernende Algorithmen, weltweit verbundene Geräte, Plattformen und Assistenzsysteme schaffen neue Kundennutzen und verändern ganze Geschäftslogiken von Grund auf. Technologien zur messbaren Erschließung von Potenzialen Unternehmen, die Schlüsseltechnologien strategisch nutzen, stellen sich robuster auf. Mit disruptiven, technologiebasierten Geschäftsmodellen legen den Grundstein für Wach­ stumssprünge. Das digitale Technologierad in Abb.  5.2. zeigt alle potenziell unternehmensrelevanten Technologien für die Jahre 2020/2021. Viele davon haben das Potenzial, die Art und Weise, wie wir Geschäft betreiben und Kundenbeziehungen gestalten, fundamental zu verändern. Gemeinsame Kennzeichen sind

Abb. 5.2  Das Technologierad der nächsten Generation

170

5  Das digitale Technologierad der nächsten Generation

• exponentielles Wachstum bei Leistungsfähigkeit und Verbreitung, • exponentiell fallende Nutzen-Kosten-Beziehung und • aus der Kombination dieser Dimensionen entstehende weitere Potenziale. Technologien stehen heutzutage nicht mehr getrennt voneinander. Sie beeinflussen sich gegenseitig. Dementsprechend gibt es kaum noch eine Technologie, die ganz ohne eine weitere auskommen könnte, ohne Potenziale zu vergeben (Policy Horizons Canady 2013). Durch ihren steigenden Vernetzungsgrad befeuern sie die digitale Transformation zusätzlich. Mit großem Abstand vor allen anderen Technologien steht KI. Die Supertechnologie wird in den kommenden Jahren ihre große Hebelwirkung im Zusammenspiel im anderen Technologien entfalten, da sie jede andere mit ihr verbundene Technologie aufwertet und ökomisch veredelt. Einen Überblick zu den Vorteilen, die im Unternehmenskontext durch Technologieeinsatz entstehen, zeigt die Tab. 5.1. Wie Zukunftstechnologien messbar Unternehmenswert und Gewinn steigern Der Einsatz von Technologien wirkt sich fast immer steigernd auf den Unternehmenswert und die Gewinnsituation eines Unternehmens aus. Das Potenzial jeder einzelnen Technologie lässt sich methodisch im Vorfeld über ausgeklügelte Werttreibermodelle im Rahmen von konkreten Einsatzfeldern abschätzen. So finden Unternehmen beispielsweise heraus, dass der Einsatz von KI voraussichtlich zu einer Steigerung der Unternehmensbewertung in Höhe von 12,5 % führt oder das Produktspartenergebnis um 6 bis 7 % erhöht. So bringen Unternehmenslenker und die Verantwortlichen für Business Technologies über plausibilisierte Annahmen noch vor dem Einsatz einer bestimmten Technologie in Erfahrung, welche vorteilhafte Situation für Unternehmen voraussichtlich eintreten wird und auf dieser Basis die Qualität ihrer Investitionsentscheidung verbessern. cc

Download Technologierad als PDF  Das digitale Technologierad können Sie für ausschließlich nichtkommerzielle Einsatzzwecke in einer höheren Auflösung auf unserer Internetseite herunterladen. Geben Sie dazu bitte folgende Adresse unserer KI-Strategieberatung in Ihren Webbrowser ein: ai-transformation. com/technologierad-2020.

Tab. 5.1  Nutzendimensionen beim Einsatz von Digitaltechnologien im Unternehmen 1. Senkung der Betriebskosten 2. Generierung von Zusatzerlösen 3. Höhere Umsetzungsgeschwindigkeit 4. Höhere Umsetzungssicherheit 5. Höhere datenbasierte Entscheidungsqualität 6. Vorausschauende Geschäftssteuerung

7. Fortlaufende Optimierung der Geschäftssteuerung 8. Bessere Mitarbeitererlebnisse 9. Bessere Kundenerlebnisse 10. Bessere Lieferantenerlebnisse 11. Bessere Distributorenerlebnisse 12. Steigende Arbeitgeberattraktivität für Talente

5.1  Cloud Computing

5.1

171

Cloud Computing

Die Basistechnologie Cloud Computing ermöglicht Unternehmen, IT-Dienstleistungen schnell, flexibel, elastisch und bedarfsspezifisch mit relativ geringem Verwaltungsaufwand zu nutzen, um adäquat auf die Wünsche und Anforderungen von Kunden reagieren zu können. Laut Bitkom-Studie von 2019 nahmen bereits drei von vier Unternehmen Cloud-Dienste in Anspruch. Und jedes fünfte Unternehmen plante oder diskutierte den Cloud-Einsatz. Bei  Großunternehmen mit mehr als 2000  Beschäftigten fiel die Cloud-­ Dienst-­Nutzung noch höher aus. Laut Forrester nutzen 2018 bereits mehr als die Hälfte der Unternehmen weltweit mindestens eine Public-Cloud, um den digitalen Wandel voranzutreiben.

Cloud-Dienste werden entweder als Software, Plattform oder Infrastruktur wie Rechenleistung oder Speicherplatz bereitgestellt. Sie lassen sich on-demand nutzen und damit flexibel skalieren und pro Benutzer oder nach genutzter Kapazität einkaufen. Es gibt Cloud-Services zur exklusiven Privatnutzung (Private Clouds), Cloud-Dienste, die zugänglich sind für die Öffentlichkeit (Public Clouds), oder einen Mix aus beiden Formen (Hybrid Cloud). Für Unternehmen liegt ein Mehrwert bei Cloud Computing insbesondere darin, dass sie häufig nur über eine oder wenige Schnittstellen dieselben Standards für Prozesse, Datenformate und Datensicherheit nutzen können. Von den Anfängen des Cloud Computing Die ersten Überlegungen zum Cloud Computing gab es bereits in den 1950er-Jahren. Im IBM-Forschungslabor sprach der Computerpionier Dr. Herbert Grosch von der Verwaltung „unintelligenter Datenstationen“, die zukünftig in einer Handvoll Rechenzentren abgelegt sein könnten (Computerwoche 2018). Grosch war der erste Wissenschaftler, der eine Relation zwischen Kosten und Rechenleistung eines Computers aufstellte. Wenige Jahre später präzisierte der Computerwissenschaftler und Vordenker auf dem Gebiet der KI, John McCarthy, diese Überlegungen, als er klarstellte, dass das Rechenzentrum der Zukunft als eine öffentliche Versorgungseinrichtung zu verstehen ist. Zu dieser Zeit war es bereits möglich, Rechenleistung von Großrechnern, die räumlich auseinander lagen, über Telefonleitungen nutzbar zu machen. Damals war die Datenübertragungsgeschwindigkeit allerdings noch äußerst gering und zudem noch keine Netzinfrastruktur vorhanden. So blieb Unternehmen lange Zeit nichts anderes übrig, als die benötigte Rechenleistung lokal zuzuführen.

172

5  Das digitale Technologierad der nächsten Generation

Lichtwellenleiter und das World Wide Web bilden den technischen Unterbau Anfang der 1970er-Jahre sendete der Computertechniker Ray Tomlinson die erste elektronische Nachricht innerhalb eines Netzwerks an sich selbst – lange bevor die E-Mail für eine Reihe von Unternehmen den Einstieg in das Cloud Computing darstellte. Einige Jahre später gelang es dem US-Glaskonzern Corning Lichtwellenleiter herzustellen, über den erstmalig der Transport von Datensignalen über längere Wegstrecken gelang. Mit dem Ausbau der Glasfaserinfrastruktur wurde der Weg geebnet für höhere Datenübertragungsraten. Es sollte rund zehn weitere Jahre dauern, bis sich in den 1980er-Jahren immer mehr Unternehmen vernetzten und auf zentrale Dienste zugriffen, die auf Servern abgelegt waren. Die dazu benötigte sog. Client- und Server-Architektur gilt als Vorstufe des Internets und Cloud-Zeitalters. Kurz nachdem der berühmte Informatiker Tim Berners-Lee 1991 am Europäischen Kernforschungszentrum CERN das http-Protokoll erfand, dazu die Auszeichnungssprache HTML entwickelte und darüber hinaus den ersten Webbrowser, die erste Webseite und den ersten Webserver bereitstellte, wurde das Word Wide Web durch die Großforschungseinrichtung freigegeben. Mit diesem technischen Unterbau entstand eine weitere Komponente des Cloud-Computing, die Internetnutzer erstmals in die Lage versetzte, über ihren Webbrowser auf Daten und Anwendungen zuzugreifen. Im Lauf der 1990er-Jahre läutete Application Service Providing (ASP) den Vorläufer der heutigen Software-as-a-Service (SaaS) und damit eine neue Ära der Informationstechnologie ein. Die Technologie verfolgte das Ziel, innerhalb des Internets Datenverarbeitungsstationen zu schaffen, auf die Nutzer beliebig zugreifen können sollten. Doch waren die allgemeinen Bandbreiten der Übertragung immer noch zu gering, sodass sich ASP nicht als Technologie durchsetzen konnte. Cloud Computing erreicht den Massenmarkt Gegen Ende der 1990er-Jahre legte die Multi-Tenant-Technologie den Grundstein für das moderne Cloud Computing. Erstmals war es gelungen, eine Software von mehreren Nutzern zu bedienen, ohne dass diese gegenseitige Einblicke in Nutzerverwaltungen oder Datenstrukturen erhielten. Im Jahr 1999 war Salesforce einer der ersten renommierten Anbieter, der eine Cloud-basierte Kundenmanagementlösung zur Verfügung stellte. Die neue Technologie ermöglichte über das klassische Softwarelizenzgeschäft hinausgehend, eine höhere Flexibilität der Nutzung und ein nutzungsbasiertes Abrechnungsmodell. In den kommenden Jahren boten weitere Technologieunternehmen wie IBM, Oracle oder Microsoft technologisch vergleichbare Software-as-a-Service-Lösungen an und ­beflügelten das kommerzielle Wachstum von Cloud Computing auf dem Markt. Die Technologie brachte eine Reihe disruptiver Geschäftsmodelle hervor und sollte zu einer Verschiebung der Marktmechaniken in zahlreichen Branchen führen. Die schnelle Cloud-Verbreitung eröffnete den Internetgiganten Facebook, Amazon, Apple oder Google die Chance, noch schneller zu wachsen, sodass die Tech-Konzerne ihren Kunden zahlreiche Digitalprodukte und digitale Dienste fortan über Cloud-Dienste zur Verfügung stellten. Dennoch dauerte es noch ganze fünf weitere Jahre bis das Marktforschungsunternehmen

5.1  Cloud Computing

173

Gartner 2009 in seinem jährlich erscheinendem Hype Cycle die neue Technologie auf die Spitze seiner Hype-Kurve setzte und Cloud Computing auch seinen medialen Höhenflug erreichte. Zwischen SaaS, PaaS und IaaS Unabhängig von der gewählten Cloud-Ausprägung Software-as-a-Service, Platform-as-a-­ Service oder Infrastructure-as-a-Service zahlen bei allen drei Cloud-Varianten Unternehmen für Dienste und Daten aus einer Rechner- bzw. Datenwolke. Dabei obliegt dem Anbieter des Cloud-Service die Bereitstellung, Wartung und Weiterentwicklung seiner Dienste. Die drei Dienste unterscheiden sich wie folgt (Abb. 5.3): • Bei SaaS stellen Cloud-Service-Anbieter Anwendungen und mobile Apps bereit. Dabei befinden sich die gesamte zugrundeliegende Infrastruktur, Middleware sowie App-Softwares und App-Daten im Datencenter der jeweiligen Diensteanbieter. Bei diesem Service brauchen Unternehmen keine Hard-, Middle- oder Software zu erwerben, zu installieren bzw. zu verwalten, um ihre vorgesehenen Anwendungen zu betreiben. Zudem müssen die Benutzer der Anwendungen i. d. R. keine spezielle Software herunterladen und bei sich installieren. Sie können die Software nach Registrierung und Anmeldung unverzüglich nutzen. • Bei PaaS stellen Cloud-Service-Anbieter Betriebssysteme, Entwicklungswerkzeuge, Datenbankverwaltung und Business-Analytics-Tools zur Verfügung. Hier greifen Unternehmen auf eine Entwicklungs- und Bereitstellungsumgebung zu. Die benötigten Ressourcen erhalten sie auf Grundlage eines nutzungsabhängigen Zahlungsmodells. Mit diesem Service können Unternehmen ihre Webanwendungen innerhalb einer integrierten Umgebung erstellen, testen, bereitstellen und verwalten. • Bei IaaS stellen Cloud-Service-Anbieter eine Computing-Infrastruktur über das Internet bereit. Die IT-Ressourcen der Infrastruktur wie Server, Speicher, Netzwerke oder

Abb. 5.3  Unterschiede innerhalb der drei Cloud-Service-Schichten

174

5  Das digitale Technologierad der nächsten Generation

Rechenkapazität lassen sich je nach Bedarf zentral verwalten und dabei hoch- oder herunterskalieren. Auf extern bereitgestellten High-Performance-Systemen können Unternehmen komplexe Aufgaben lösen, die mehrere Millionen Variablen oder Berechnungen umfassen. Sie können enorme Datenmengen, die möglicherweise nützliche Muster, Trends und Assoziationen enthalten, analysieren und bei bestimmten Datenbeständen Data-Mining-Software einsetzen.

Multi-Cloud-Lösungen Die durch die Digitalisierung bedingte Evolution von Unternehmen zu einer diensteorientierten und mit Software und KI angereicherten Produktpalette macht eine Flexibilisierung innerhalb der IT notwendig, um den heterogenen Anforderungen entsprechen zu können. Zur Lösung vieler Fragestellungen im Transformationskontext bieten sich Multi-Cloud-­ Lösungen an. Setzen Unternehmen auf mehrere Cloud-Anbieter und nutzen sie z. B. zwei oder drei Clouds gleichzeitig, verringern sie das Abhängigkeitsgefüge von nur einem Anbieter und damit den sog. Lock-in-Effekt sowie Ausfallrisiken (Abb. 5.4). Das setzt voraus, dass sie ein intermediäres System über die verschiedenen Cloud-Plattformen hinweg schaffen und akzeptieren, dass ihre Backups über verschiedene Standorte hinweg verteilt liegen können – etwa in London, Amsterdam oder Frankfurt. Unternehmen können Kostenpotenziale bei Multi-Cloud-Lösungen heben, wenn ihre IT-Verantwortlichen das Kostenmanagement automatisieren. In der Regel bieten Cloud-Anbieter ihre eigenen Management-­Dashboards an. Damit sind die Kostenstrukturen meist nicht miteinander vergleichbar und veranlassen IT-Entscheider in der Multi-Cloud-Umgebung, auf ein weiteres Tool zum Kostenmanagement zu setzen, das herstellerunabhängig alle genutzten

Abb. 5.4  Anbieter Cloud-basierter IT-Dienstleistungen für Software-as-a-Service (SaaS), Platform-­ as-­a-Service (PaaS) oder Infrastructure-as-a-Service (IaaS) nach weltweitem Marktanteil. (Quelle: Synergy Research Group, Statista, Q1/2018)

5.1  Cloud Computing

175

Clouds abbildet. Auf diese Weise können sie anfallende Workloads und Verlaufskurven der Cloud-Nutzung übergreifend überwachen (Sundermann 2018). Zudem geht die Automatisierung heutzutage schon so weit, dass die Tools nicht bzw. kaum genutzter Services automatisch abbestellt oder heruntergefahren werden. Flexibilisierung von Multi-Cloud-Umgebungen Um unterschiedliche Cloud-Angebote unter einem Controlling- und Reporting-Dach zu vereinen, können sich Unternehmen sog. Containerarchitekturen bedienen. Diese Architekturen bilden die nächste Evolutionsstufe nach Virtual Machines. Während sich letztere nicht einfach in der Amazon-Cloud herunterfahren und am nächsten Tag in der IBM-­ Cloud hochfahren lassen, sind Container genau dazu in der Lage. Sie sind damit eine wichtige Komponente, um die IT- Effizienz zu erhöhen und eine Portabilität von Anwendungen zu ermöglichen. Mittlerweile bieten fast alle großen Cloud-Service-Anbieter Werkzeuge an, um die Bestandsapplikationen in Containerapplikationen zu konvertieren. Da nicht alle Bestandsanwendungen Multi-Cloud- und containerfähig sind, gilt: Je weniger tiefgehend die Anwendungslogik in der IT-Infrastruktur verankert ist, desto einfacher fällt die Containerisierung aus (Sundermann 2018). Die nächsten Evolutionsstufe der Cloud Als Nachfolger von Cloud-Technologie sehen einige Experten das Internet der Dinge, das bekanntlich eine gigantische Vernetzung über die Cloud ermöglicht. Die via Internet der Dinge verbundenen Geräte, Maschinen und Sensoren erfassen pausenlos Daten, die übertragen und ausgewertet werden. Weil relativ schmale Cloud-Bandbreiten nur eine eingeschränkte Rechenleistung ermöglichen, werden sich Internet-der-Dinge-Ressourcen und die dazugehörigen Analysen ergänzend an den Rand von Netzwerken verlagern. Durch dieses sog. Edge Computing verschiebt sich der Analyseaufwand näher an die Datenquellen und ermöglicht eine höhere Parallelisierung von Analysen und damit einen Geschwindigkeitsvorteil. Auf diese Weise verfügen Unternehmen schneller über relevante Auswertungen (Manhart 2018). Im Jahr 2017 verkündete Google, dass Cloud Computing seine Evolution zukünftig in größeren Sprüngen fortsetzen wird und kündigte eine neue Ära an. Der Suchmaschinengigant verglich den Wandel mit dem Übergang vom klassischen Mobiltelefon zum Smartphone. Auf der Cloud Next 18 Conference sprach Google von einer Cloud-basierte Plattform, auf der Unternehmen Anwendungen der Schlüsseltechnologie Blockchain entwickeln können. Auch im Umfeld von KI und maschinellem Lernen werden Cloud Computing und Edge Computing Schlüsselrollen einnehmen. Das Zusammentreffen von ausgereiften KI-Algorithmen und nahezu unbegrenzter Rechenleistung aus der Cloud wird Unternehmen einen vereinfachten Einstieg in weitere Schlüsseltechnologien ermöglichen. Bereits heute lassen sich zahlreiche Plattformen und Anwendungen für KI über Cloud-Services nutzen.

176

5.2

5  Das digitale Technologierad der nächsten Generation

Mobile

Mobil nutzbare Laptops, Tablets, Smartphones, mobile Apps, mobiles Internet – die Basistechnologie Mobile setzt vieles in Bewegung und gehört zu den prägendsten und weltweit am häufigsten eingesetzten Basistechnologien. Keine andere Technologie hat die Art und Weise, wie wir uns informieren, miteinander kommunizieren, arbeiten oder einkaufen, in den vergangenen Jahren so stark verändert.

Anzahl der Smartphonenutzer verzehnfacht sich innerhalb von einer Dekade Seit der Markteinführung flächendeckender digitaler Mobilfunknetze Anfang der 1990er-­Jahre hat sich in Deutschland mit Blick auf Technikentwicklung, Ausstattung und Design von Mobiltelefonen einiges getan. Die Konkurrenz unter den vier Anbietern führte innerhalb weniger Jahre zu einem schnellen Sinken der Preise für Mobilfunktelefonie und beschleunigte damit den Durchbruch im Massenmarkt. Im Jahr 2018 nutzen laut Statista rund 57 Mio. Deutsche ein Smartphone – damit hat sich die Anzahl in den vergangenen zehn Jahren fast verzehnfacht. Bis zum Jahr 2021 soll die Zahl der Smartphonenutzer weltweit auf 3,1 Milliarden ansteigen (Statista 2019). Das Smartphone steht für einen gigantischen Multi-Milliarden-Markt. Bei einer Untersuchung der Mobile Marketing Association MMA gaben 91 % der Nutzer an, dass diese ihr Mobiltelefon 100 % der Zeit bei sich tragen. Damit ist es das persönlichste technologische Gerät der Menschen. Es bietet Zugang zu einer sich immer weiter vernetzenden Welt und zeichnet sich v. a. durch kurze und gezielte Nutzungen aus (Rieber 2017).

Computerrechenleistung des Smartphones im Vergleich zum Apollo-Mondpro­gramm Der beim Apollo-Mondprogramm eingesetzte Computer ST-124M wog 35 Kilogramm, bestand aus 40.800  Bauteilen  – davon 8918  Chips  – und leistete im Durchschnitt 9600 Rechenoperationen pro Sekunde. Eine Addition dauerte 82 Mikrosekunden, eine Multiplikation oder Division 328 Mikrosekunden. Seine Zuverlässigkeit lag bei einer Mean Time between Failures (MTBF) von 45.000 Stunden und entsprach damit einem einzigen Ausfall nach durchschnittlich 5  Jahren. Bei den seit Jahrzehnten kontrovers diskutierten Mondmissionen - hinsichtlich der Fragestellung, ob diese überhaupt jemals stattgefunden haben – sollte bei der Freiflugphase der Saturn V eine maximale Betriebsdauer von 10 Stunden am Stück sichergestellt werden. Anders als die Bordcomputer des Command Module CM und der Mondlandefähre LM waren gemäß der Sicherheitsphilosophie des Raketeningenieurs Dr. Wernher von Braun alle Teile des Computers dreifach redundant ausgelegt und verfügten über einen Abstimmmechanismus: Rechnete ein Computer falsch, so überstimmten ihn die beiden anderen (Leitenberger 2009).

5.2 Mobile

177

Leistungsfähigkeit mobiler Endgeräte steigt ungebremst  Von Jahr zu Jahr steigt die Rechenleistung mobiler Endgeräte ungebremst. Das iPad 2 von Apple hätte es im Jahr 1994 auf die Liste der schnellsten Supercomputer der Welt geschafft (Gruber 2016).  25 Jahre später verfügte das schnellste Smartphone von Apple iPhone Xs Ende 2018 mit seinen fünf Billionen Rechenoperationen je Sekunde -  bereits über die 500-millionenfache Rechenleistung des Apollo-Mondprogramms der NASA und wog dabei gerade mal 177 Gramm.

Zeitreise: von Mobilfunk über Mobiltelefone zum mobilen Internet • 1926: Die Deutsche Reichsbahn und Reichspost startet ihren Telefondienst in Zügen der ersten Klasse auf der Strecke zwischen Berlin und Hamburg. • 1946: Das US-Unternehmen Bell ruft seinen Mobile Telephone Service ins Leben. Über in Autos montierte Endgeräte finden in St. Louis die ersten Mobilfunkgespräche statt. • 1958: Die Deutsche Bundespost führt das A-Netz als öffentlich beweglichen Landfunkdienst ein und macht Telefongespräche in Autos in Westdeutschland möglich. Die Geräte wiegen 16 Kilogramm und kosten mehr als der Kleinwagen VW Käfer. Die Gesprächsvermittlung erfolgt manuell durch eine Zentrale, die vor jedem Gespräch angewählt werden muss. • 1968: Das A-Netz erreicht eine 80%ige Abdeckung des bundesdeutschen Gebiets. Die Mobilfunkgerätepreise liegen bei etwa bei der Hälfte des Wagenpreises. Als die Kapazitätsgrenze 1971 von rund 11.000 Teilnehmern erreicht wird, erhöht die Bundespost die monatliche Grundgebühr von 65 DM auf 270 DM (Gräve 1997) – was einer inflationsbereinigten Grundgebühr im Jahr 2019 von etwa 500 € entspräche. • 1972: Das technologisch verbesserte, analoge B-Netz wird in der Bundesrepublik Deutschland in Betrieb genommen. Zum ersten Mal sind Selbstwählverbindungen in beide Richtungen möglich. • 1973: Das Entwicklungsteam um Martin Cooper und Motorola-Chefdesigner Rudy Krolopp stellen den ersten Mobilfunkprototypen vor. Dessen Name DynaTAC steht für „Dynamic Adaptive Total Area Coverage“ (Abb. 5.5). • 1983: Nach zehnjähriger Entwicklungszeit bringt Motorola das weltweit erste kommerzielle Mobiltelefon DynaTAC 8000X auf den Markt. Es wiegt 749 Gramm, ist 33 cm lang und 4,5 cm tief. Das 3995 US$ teure Gerät ermöglicht eine Gesprächsdauer von bis zu einer Stunde. Ein Jahr später nutzen das Mobiltelefon in den USA bereits 300.000 Menschen. • 1985: Mit dem C-Netz stellt Siemens das modernste Mobilfunknetz der Welt auf die Beine. Die Erneuerungen des kleinzelligen Netzes sind bahnbrechend. Aufgrund der gemeinsamen Vorwahl 0161 braucht ein Teilnehmer nicht mehr zu wissen, in welcher Region sich sein mobiler Gesprächspartner zum Zeitpunkt des Anrufs aufhält. Zudem lassen sich Gespräche zwischen Funkstationen erstmals unterbrechungsfrei führen. Etwa zur gleichen Zeit kommen die ersten Portables als kleine Boxen mit Tragegriff, Telefonhörer und Antenne auf den Markt. Das Portable von Vodafone VT1 wiegt 4,7 Kilogramm. Seine Akkuladung reicht für eine Gesprächsdauer von 30 Minuten – danach muss das Mobiltelefon wieder für zehn Stunden aufgeladen werden. • 1986: Das B-Netz erreicht mit 27.000 Teilnehmern seinen höchsten Teilnehmerstand. • 1988: Das erste deutsche Mobiltelefon C2 Portable von Siemens kommt auf den Markt. Es ist 7 Kilogramm schwer und kostet ohne Extras 7600 DM – aus inflationsbereinigter Sicht läge der Kaufpreis 2019 bei rund 7100 €.

178

5  Das digitale Technologierad der nächsten Generation

Abb. 5.5  Vice President John F. Mitchell und der Entwickler des ersten modernen Mobiltelefons der Welt DynaTAC portable radio telephone, Dr. Martin Cooper bei Motorola rufen mit ihrem Prototypen am 3. April 1973 auf der 6th Avenue in New York ihren Rivalen bei Bell Labs, Dr. Joel Engel, an: „[…] and there was silence at the other end of the line“. (Quelle: Motorola) • 1992: Nach einjähriger Versuchsphase wird das D-Netz als erstes digitales Netz eingeführt. Das D1-Netz wird von der Deutschen Telekom, das D2-Netz von Vodafone D2 betrieben. Daneben gibt es elf weitere Netze in sechs weiteren Ländern. Im gleichen Jahr bringt Motorola seinen „Knochen“ als erstes GSM-fähiges Mobilfunktelefon International 3200 für 3000 DM auf den Markt. Und Nokia bietet sein Candy-Bar-Handy 1011 für 2300 DM zum Kauf an. • 1993: Bell South bringt zusammen mit IBM das erste Smartphone der Welt auf den Markt (Sager 2012). Als Kombination aus Telefon und Personal Digital Assistant (PDA) hat das 500 Gramm schwere Personal Communicator bereits einen Touchscreen. Das deutsche D-Netz nutzen 130.000 Kunden der Deutschen Telekom und das C-Netz mittlerweile mehr als 800.000 deutsche Teilnehmer. Die Grundgebühr für D-Netz-Kunden lag bei 49 DM. Die Verbindungspreise liegen in der Hauptzeit bei 1,69 DM je Minute und in der Nebenzeit bei 0,69 DM. • 1994: Der Mobilfunkanbieter E-Plus führt das E-Netz ein. Vier Jahre später sollte als zweiter E-Netzbetreiber O2 von Viag Interkom (heute: Telefónica) folgen. • 1996: Nokia launcht mit dem Communicator 9000 das erste Smartphone mit integriertem Organizer für die breite Masse. • 2000: Sharp launcht das erste Mobilfunktelefon mit eingebauter Fotokamera, mit einer Auflösung von 352×288 Pixel. • 2002: Das erste Mobiltelefon mit Farb-Touchscreen P800 von Ericsson erscheint. • 2003: Das Nokia 3650 ist das erste Mobiltelefon mit integrierter Videokamera, das Videos aufnehmen und wiedergeben kann. • 2006: Das Samsung B600 ist das erste Mobiltelefon mit Zehn-Megapixel-Kamera. Mit über 85  Mio.  Mobilfunkanschlüssen gibt es in Deutschland erstmals mehr Mobiletelefone als Einwohner. • 2007: Die Geburtsstunde des iPhone von Apple als erstes modernes Smartphone mit berührungsempfindlichen Bildschirm, über den sich alle Funktionen steuern lassen. • 2008: HTC bringt das erste Smartphone mit Android-Betriebssystem auf den Markt.

5.2 Mobile

179

• 2010: Apple bringt das erste iPad auf den Markt. Samsung antwortet auf das iPhone mit seinem Smartphone Galaxy S. Im gleichen Jahr fällt der Startschuss für LTE in Deutschland. • 2012: Apple bringt das iPhone 5 auf den Markt. Im gleichen Jahr erscheint mit dem Samsung Galaxy S3 als schnellstes Smartphone der Welt. Zu dieser Zeit steht LTE über 50 % der deutschen Haushalte zur Verfügung. • 2016: Mit rund 7,5 Mrd. Mobilfunkanschlüssen gibt es so viele Anschlüsse wie Menschen auf der Erde. • 2018: Laut IDC-Studie haben die höchsten Smartphonemarktanteile die Unternehmen Samsung mit 20,3 %, Huawei mit 14,6 % und Apple mit 13,2 %.

Mobile Apps auf dem Vormarsch Mit dem Start des App Store von Apple 2008 fanden kleine, mobile Anwendungen auf Smartphones ihren Ursprung. Damit konnte jeder Anbieter seine eigene Anwendung auf die Plattform bringen, unter der Voraussetzung, dass diese der Sicherheitsprüfung von Apple standhielt. Um den App Store zu finanzieren, behielt Apple 30 % der Einnahmen aller kostenpflichtigen Apps ein. Ebenfalls im Jahr 2008 brachte Google seinen Android Market (seit 2012 Google Play) an den Markt und öffnete damit ein zweites Tor für den mobilen Zugang zu Apps, Musik, Hörbüchern, Videos und digitalen Zeitschriften. Vier Jahre später folgte Amazon 2012 mit der Eröffnung seines Appstore in Europa. Im Jahr 2014 zählte der Apple App Store bereits 1,2 Mio. Apps und 75 Mrd. Downloads (Perez 2014). Laut Statista umfasste Google Play im Oktober 2017 3,3 Mio. Apps, der App Store von Apple 2,2 Mio. und Amazons Appstore 600.000 Apps. Gemäß Heise Online gaben Nutzer für Apps im ersten Halbjahr 2018 weltweit rund 34 Mrd. $ aus. Mit 22,6 Mrd. $ bezahlten iPhone- und iPad-Nutzer damit fast doppelt so viel wie Android-­ Nutzer bei Google Play. Und dies, obwohl die Downloadzahlen von iOS-Apps um die Hälfte niedriger ausfielen, als bei Android-Apps. Im Unterschied zu Apples App Store ist Google Play nicht in China verfügbar, wo sich inzwischen ein erheblicher Teil des App-Umsatzes erwirtschaften lässt (Becker 2018). Das mobile Internet setzt sich durch Das mobile Internet ist eng mit den Entwicklungen in der Mobilfunktechnik verbunden. In der ersten Generation des Mobilfunks 1G war lediglich das mobile Telefonieren mit analoger Sprachübertragung über das sog. A-Netz möglich. Es folgten das B-Netz und das C-Netz. Erst die zweite Generation des Mobilfunks 2G brachte ab 1992 das erste digitale D-Netz mit sich, das neben der mobilen Telefonie erstmals auch mobile Datenübertragungen in Deutschland möglich machte. Die technisch ausgereifte GSM-Technologie verbreitete sich schnell und erfolgreich auf der ganzen Welt: Ende 1993 verfügten alle ­GSM-­Mobilfunknetze in Summe über 1  Mio.  Teilnehmer. Ende 2000 waren es bereits rund 400  Mio.  Teilnehmer in 370  Netzen, die das Telefonieren innerhalb von mehr als 140 Ländern vorantrieben (Schnabel 2019). Lag die maximale Übertragungsrate bei 2G auf GSM-Basis noch bei 9,6 KBit je Sekunde, wurde diese mit jeder nachfolgenden Technologie übertroffen. GPRS transportierte Daten mit maximal 54 KBit pro Sekunde und EDGE bereits mit 220 KBit je Se-

180

5  Das digitale Technologierad der nächsten Generation

kunde. Mit der Einführung der dritten Generation des Mobilfunks 3G verbesserten die neuen Technologien ihre Bandbreiten um ein Vielfaches. Da der UMTS-­ Ge­ schwindigkeitszugewinn mit maximal 384 KBit je Sekunde noch überschaubar war, sollte sich dies mit der Einführung von HPA ändern. Diese Technologie stellte mit 7,2 Mbit je Sekunde deutlich höhere Übertragungsraten bereit. Mit der Einführung von 4G im Jahr 2010 kam über LTE der nächste große Sprung von bis zu 150 Mbit bzw. 1 Gbit je Sekunde mit LTE+. Zwischen 2020 und 2025 soll die nächste Generation des Mobilfunks 5G marktreif sein. Die Übertragungsgeschwindigkeit soll dann bis zu 20 Gbit je Sekunde erreichen, wie das US-Fachmagazin IEEE-Spektrum in Aussicht stellte (Nordrum und Clark 2017). Als erster Telekommunikationskonzern aktivierte Vodafone Ende 2018 die 5G-Technologie „Narrowband IoT“ großflächig in ganz Deutschland (Krzossa 2019). Technologiesprünge und Risiken durch 5G Während 4G ihren Schwerpunkt in der privaten Nutzung hat, soll 5G auch Industriezwecken genügen. So benötigt u. a. auch das autonome Fahren hohe Bandbreiten und stabile Verbindungen, um enorme Datenmengen innerhalb weniger Millisekunden zu erfassen und in Echtzeit auszuwerten. Mit 5G könnten jenseits von vernetzter Industrieproduktion, selbstfahrenden Autos, Telemedizin und vernetzten, intelligenten Städte auch ganz neue Industrien und Dienstleistungen entstehen, die heute noch gar nicht vorstellbar sind (Brost 2018). Die größten technologischen Erneuerungen sind neben der schnelleren Datenübertragungsgeschwindigkeit auch eine viel geringere Latenzzeit – das ist die Zeitspanne von der Anforderung eines Datenpakets bis zu dessen Empfang. Die angestrebte 5G-Zielmarke liegt bei nur einer Millisekunde. Somit wird 5G zum Echtzeitinternet (Knop 2018). Weiterhin soll 5G durch den erheblich geringeren Energieverbrauch für den Empfang längere Akkulaufzeiten in Aussicht stellen. Trotz aller technologischen Fortschritte wird der geplante flächendeckende 5G-Ausbau vor dem Hintergrund von möglichen Gesundheitsbeeinträchtigungen durch die vielfach höhere Strahlenbelastung für Menschen kontrovers diskutiert. Denn mit der Einführung von 5G kommen an Plätzen mit hoher Nutzerdichte sog. Kleinzellen zum Einsatz. Diese haben zwar eine geringere Sendeleistung, werden gleichzeitig aber näher an Orten betrieben, wo sich tendenziell viele Menschen aufhalten. Wie sich dies genau auf uns Menschen auswirken wird, kann nach Aussagen des Bundesamts für Strahlenschutz (BfS) noch nicht genau abgeschätzt werden. Allerdings ist davon auszugehen, dass die Streubreite möglicher Zwangsexpositionen zunehmen wird (BfS 2019). Wie die Nutzerzahlen beim mobilen Surfen immer weiter steigen Die permanent nutzbaren Internetzugänge und die steigende Anzahl an Internetseiten lösten einen Wandel im Internetnutzungsverhalten aus. Als Google seinen Suchmaschinendienst 1998 startete, lag die weltweite Nutzung des Internets noch bei 3,6 %. 2004 waren es 12,7 %. Zehn Jahre später nutzten bereits knapp 3 Mrd. Menschen das Internet. Laut der Studie Mobile Web Watch der Kollegen von Accenture besaßen 2008 bereits 62 % der

5.3  Social Networks

181

Deutschen ein internetfähiges Mobiltelefon. Allerdings gaben nur 13 % der Nutzer an, von unterwegs aus online zu gehen. Mit dem Aufkommen von Smartphones änderte sich auch die Nutzungsintensität. Anfang 2018 nutzten laut BVDW-Studie im Schnitt bereits 69 % der deutschen Nutzer das mobile Internet über ihr Smartphone. In der Altersgruppe 16–34 Jahre lag die Nutzungsrate sogar bei 80 %. Und Tablets erreichten eine Nutzungsrate von durchschnittlich 35 %. Der Global Digital Report 2018 von „We Are Social“ stellte fest, dass mehr als 4 Mrd. Menschen das Internet nutzen. Somit war  über die Hälfte der Weltbevölkerung inzwischen online. Mit jährlichen Wachstumsraten von über 20 % an über den gesamten Kontinent verteilten Internetnutzern liegt Afrika vorn – der größte Teil der afrikanischen Nutzer bedient sich dabei des mobilen Internets. In Anlehnung an den Global Digital Report 2018 besaßen mit 5,1 Mrd. Menschen rund zwei Drittel Menschen auf der Welt ein Mobiltelefon. Bei einer durchschnittlichen Steigerungsrate von 4 % kommen jährlich über 200.000 Mio. Menschen dazu. Zudem waren bereits über die Hälfte der verwendeten Mobiltelefone intelligente Geräte (Bouwman 2018). Wie Mobiltechnologien unsere Arbeitswelt verändern Die Marktdurchdringung von mobilen Endgeräten, Mobilfunktechnologien und der Zugang zum mobilen Internet lassen die Grenzen zwischen Arbeit und Freizeit immer mehr verschwimmen und machen das Arbeiten insgesamt flexibler. Die Arbeitswelt der starren Systeme hat sich in eine Welt der fließenden Übergänge verwandelt (Schuster 2018). In Anlehnung an eine 2018 durchgeführte Studie von Samsung verändern Smartphones, Tablets und Laptops nicht nur das Arbeits- und Freizeitverhalten der Menschen, sondern brechen zudem Standards auf, die bislang in Büros galten. So ändern sich Arbeitszeiten, Arbeitsorte oder Arbeitsgewohnheiten. Die traditionell physische Anwesenheit im Büro verschiebt sich zunehmend in Richtung digitaler Verbindungen und digitaler Zusammenarbeit. Auf diese Weise lassen sich Beruf und Privatleben leichter miteinander vereinbaren. Zudem steigt das Maß an Selbstbestimmung. Mobile Endgeräte tragen dazu bei, Arbeitsabläufe und automatisierte Lösungsprozesse zu digitalisieren. Daher unterstützen zunehmend mehr Unternehmen flexible, mobile Arbeitsmodelle und stellen integrative Businesslösungen und spezielle Individuallösungen durch die IT bereit, die via App abrufbar sind.

5.3

Social Networks

Die Basistechnologie soziale Netzwerke steht für digitale Plattformen zum öffentlichen Austausch von Meinungen, Erfahrungen und Informationen, die dem Aufbau und der Pflege von Beziehungen dienen. Als Kommunikationsinstrument bieten sie Unternehmen vielfältige Möglichkeiten, um Informationen zu veröffentlichen, neue Geschäftsbeziehungen zu entwickeln und bestehende zu intensivieren.

182

5  Das digitale Technologierad der nächsten Generation

Rückblick: Die Entwicklung sozialer Netzwerke Bereits vor dem Aufkommen des Internets gab es Ende der 1970er-Jahre soziale Netzwerke wie das Bulletin-Board-System BBS oder das Usenet, auf denen Benutzer ihre Daten und Nachrichten auf öffentlichen Boards posten und miteinander diskutieren konnten. Die ersten modernen Grundfunktionen einer sozialen Plattform kamen mit Compuserve oder AOL bereits vor der Geburtsstunde des Internets in den 1980er-Jahren auf. Bei diesen konnten Nutzer erstmals auch persönliche Profile erstellen und neben öffentlichen Mitteilungen auch private versenden. Durch das Internet kamen neue Funktionen hinzu, die über klassische Foren oder Chats hinausgingen. Doch erst zur Jahrtausendwende kam der große Sprung. Zunehmend mehr Menschen waren mit dem Internet verbunden, sodass sich ein Teil der privaten Kommunikation in dieses verlagerte. Fast zeitgleich entstanden die Plattformen MySpace, LinkedIn, OpenBC (der Vorläufer von Xing) und schließlich auch Facebook im Jahr 2004, das sich zum erfolgreichsten sozialen Netzwerk aller Zeiten entwickeln sollte. Schon vier Jahr später durchbrach Facebook die 100-Millionen-Mitglieder-Marke. Im Jahr 2010 hatte die Plattform bereits 500 Mio. Mitglieder und 2012 eine Milliarde. Dagegen konnte sich das später gestartete soziale Netzwerk von Google trotz seines Bekanntheitsgrads auf Dauer nicht als relevanter Wettbewerber auf dem Markt etablieren. Im Oktober 2018 stellte Google sein Netzwerk Google+ ein. Ende 2019 veröffentlichte Statista eine neue Rekordmarke aktiver Nutzer auf Facebook, 2,45 Milliarden weltweit.

Soziale Netzwerke durchdringen die Welt Laut Global Digital Report 2018 nutzen 3,2 Mrd. Menschen auf der ganzen Welt soziale Medien, wobei 9 von 10 Nutzern auf ihre Plattformen über mobile Geräte zugriffen. Die jährliche Steigerungsrate lag bei 13 % (Bouwman 2018). Laut Digitalinformationworld 2019 dominierte Facebook Ende 2018 deutlich vor allen anderen sozialen Netzwerken (Abb.  5.6). So verfügten 85 % der weltweiten Internetnutzer mit Ausnahme von China über einen eigenen Facebook-Account. Dahinter folgten Youtube mit 79 %, Facebook Messenger mit 72 %, WhatsApp mit 66 %, Instagram mit 63 % und Twitter mit 56 %. Soziale Netzwerke als etabliertes Instrument des Marketing Soziale Netzwerke haben sich als prioritärer Kanal zur Unternehmenskommunikation fest etabliert. Was als Marketingtrend begann, ist zum professionellen Business gereift. Längst reicht eine Website allein nicht mehr aus, um Kunden und öffentliche Anspruchsgruppen digital zu erreichen. Knapp 79 % der Unternehmen haben dies erkannt und ihre Digitalstrategie um das Social-Media-Marketing erweitert, wie die Studie Social Media Marketing 2018 des Deutschen Instituts für Marketing zeigte. Zudem waren 84 % der Befragten

5.3  Social Networks

183

Abb. 5.6  Die 25 reichweitenstärksten sozialen Netzwerke im Jahr 2018. (Quellen: Digitalinformationworld, We are Social, Similar Web, Tech Crunch, Apptopia, Fortune, Wikipedia, Statista)

der Ansicht, dass die Relevanz dieses Kommunikationskanals weiter steigen wird. Als reichweitenstärkster Kanal schnitt Facebook ab – rund 96 % der Unternehmen aus dem Privatkundenbereich und 73 % aus dem Geschäftskundenbereich waren hier vertreten (Leitherer 2018). In Bezug auf das Engagement je Nutzer hatte Instagram höhere Priorität. Die Ende 2018 veröffentlichte Analyse der KI-basierten Social-Media-Marketing-­ Plattform Socialbakers ergab, dass Instagram zwar im Vergleich zu Facebook eine kleinere Reichweite aufweist, seine Nutzer aber weitaus stärker engagiert sind als Facebook-­ Nutzer. So wird Instagram, das seit 2012 zur Facebook-Familie gehört, immer leistungsfähiger in puncto Engagement in qualitativ hochwertigen, aber kleinen Zielgruppen (Breismeier 2018). Gemäß der in Silicon Valley ansässigen VC-Gesellschaft Kleiner Perkins, verbringt ein durchschnittlicher Nutzer über drei Stunden pro Tag damit, verschiedene digitale Medien auf seinem Smartphone zu nutzen. Dies ist ein Wachstum von fast 500 % innerhalb von fünf Jahren. Die größten Vorteile von sozialen Netzwerken aus Unternehmenssicht sind:

184

5  Das digitale Technologierad der nächsten Generation

• Steigerung von Markenbekanntheit und Reputation • Zielgruppenorientierte Werbung zur Absatzförderung sowie Gewinnung neuer Interessenten und Kunden • Beobachtung von Wettbewerbern und Markttrends • Tests von bestehenden und neuen (Beta-)Produkten und (Beta-)Services • Positionierung als Marke gegenüber potenziellen Arbeitnehmern • Öffentlichkeitsarbeit und Krisenkommunikation

5.4

Cyber Security

Mit dem Wachstum der digitalen Wirtschaft steigt auch das Risiko von Cyberangriffen. Die Basistechnologie Cyber Security steht für Informationstechnologiesicherheit und damit für den Schutz von Computersystemen – insbesondere vor Beschädigung oder Diebstahl von Daten, Software und Hardware. Sie vereint Technologien, um Netzwerke, Computer, Anwendungen und Daten vor Angriffen und Schäden zu bewahren  – Schutz vor Störung oder Fehlleitung bereitgestellter Dienste eingeschlossen (Abb. 5.7.). Die Schutzmaßnahmen sind nicht nur auf IT beschränkt. Sie beinhalten darüber hinaus Richtlinien für die Organisation und den operativen Geschäftsbetrieb innerhalb des Unternehmens.

Bereits sechs Generationen von Schadprogrammen Mit jeder neuen Generation von sog. Schadprogrammen steigen die Angriffsvarianten und die Komplexität der Verteidigung durch die IT-Infrastruktur in Unternehmen (Tab. 5.2). Gleichzeitig formiert sich bei der IT-Security mit jeder neuen Generation eine neue ­Industrie. Waren es in der ersten Generation noch einfache Viren, bei denen Hacker ­hauptsächlich aus Spaß handelten, wurden die Angreifer im Lauf der Jahrzehnte immer geschickter darin, Schadsoftware zu entwickeln und zu platzieren.

Abb. 5.7 Unzureichender Schutz vor Cyberattacken. (Quelle: Check Point Software Security Report 2018)

5.4  Cyber Security

185

Tab. 5.2  Generationen von Schadprogrammen Generation Erste Generation

Zeitraum Ende der 1980er-­ Jahre

Zweite Generation

Mitte der 1990er-­ Jahre Anfang der 2000er-­ Jahre Anfang der 2010er-­ Jahre

Dritte Generation

Vierte Generation

Fünfte Generation

Ende der 2010er-­ Jahre

Sechste Generation (Ausblick)

2020er-­ Jahre

Angreifer In den Geburtsjahren der Cyberkriminalität produzieren die Viren häufig Fehler oder absichtliche Störungen auf Einzel-PC von Unternehmen Schadsoftware wird zusätzlich über das Internet eingeschleust

Angriffsabwehr Erste Anti-Virus-Produkte entstehen

Firewall werden zum Standard

Cyberkriminelle verlegen sich auf das Ausnutzen von Schwachstellen innerhalb von Anwendungen

Intrusion Prevention Services (IPS) etablieren sich auf dem Markt

Schädliche, zerstörerische oder intrusive polymorphe Inhalte kommen ins Spiel, die sich permanent verändern, um deren Entdeckung zu erschweren Cyberattacken werden größer, zielgerichteter und komplexer – sie umfassen groß angelegte Multi-Vector-­ Angriffe, die sich weltweit rasend schnell ausbreiten und zahlreiche Bereiche gleichzeitig attackieren Die zukünftige Generation der Cyberbedrohungen wird aller Voraussicht nach mit der weiteren Ausbreitung des Internet der Dinge Einzug halten

Auf die Angriffe reagieren abwehrende Anti-Bot-­ Lösungen

Die Großangriffe wecken den Bedarf an integrierten, vereinheitlichten Sicherheitsstrukturen

Die Abwehr erfolgt möglicherweise über sog. Nano-Agenten

Häufigkeit von Cyberattacken In ihrem Cyber Security Report zeigten die Kollegen von Deloitte, dass rund 83 % der Unternehmen mit über 1000 Mitarbeitern mehrmals im Monat Angriffe auf die IT regis­ trierten – die Hälfte der Unternehmen sogar täglich. Weiterhin stellten die Analysten fest, dass sich die Anzahl der täglichen bis wöchentlichen Angriffe von 2013 bis 2017 fast verdoppelt hat. Hinzu kommt eine Dunkelziffer – rund jedes vierte befragte Unternehmen gab an, dass eine Reihe von Cyberangriffen unbemerkt bliebe. Aus diesem Grund hatte die IT-Sicherheit bei 93 % der Unternehmen branchenübergreifend einen hohen bis sehr hohen Stellenwert (Abb. 5.8). Strategien der Angreifer Die Intentionen von Hackern sind ganz unterschiedlicher Natur. Die meisten Cyberangriffe haben destruktiven Charakter und sollen das IT-System bzw. die Server von Unternehmen lahmlegen. An zweiter Stelle beabsichtigen die Angreifer Daten bzw. Unternehmenswissen zu entwenden. Fast jedes fünfte Unternehmen ist dabei im Unklaren darüber, welche Zielsetzung die Angreifer bei ihren Angriffen verfolgen (Abb. 5.9).

186

5  Das digitale Technologierad der nächsten Generation

Abb. 5.8  Bedrohungslage durch neue Schadprogramme und relative Verteilung. (Quelle: AV Test 2018) Abb. 5.9  Ziele der Cyberangreifer aus Unternehmenssicht. (Quelle: Deloitte 2017)

Cyberkriminelle setzen auf unterschiedliche Angriffsstrategien, die sie bei Bedarf miteinander kombinieren

1. Pausenlose Angriffe: Netzwerke werden pausenlos mit sich stets weiterentwickelter Schadsoftware angegriffen, um Sicherheitslücken zu identifizieren. 2. Angriff über unterschiedliche Schadprogrammvarianten: Netzwerke werden mit unterschiedlichen Varianten von Schadsoftware infiziert: Dazu gehören: • Computerviren: Als älteste und bekannteste Schadsoftware verändern sie über Dateifreigaben, Downloads oder E-Mail-Anhänge harmlose Dateien oder Verknüpfungen und verbreiten sich, indem sie Kopien und Schadcode von sich selbst in Dateien oder Datenträgern schreiben.

5.4  Cyber Security

187

• Computerwürmer: Vervielfältigen sich selbst und versuchen, in andere Computer einzudringen. In Abgrenzung zu Viren verbreiten sich Würmer, ohne fremde Dateien oder Bootsektoren mit ihrem Code zu infizieren. • Trojaner: Verstecken, als harmlose Programme getarnt, Schadsoftware in Form von Viren, Würmern, Spyware oder Ransomwares und öffnen Angreifern eine Hintertür, um später auf das kompromittierte System zuzugreifen. • Rootkits: Ermöglichen einen längerfristigen Zugang zu Computersystemen. • Backdoors: Sind Teile von Software, die es Hackern über eine Hintertür ermöglichen, unter Umgehung der üblichen Zugriffssicherungen, Zugang zu Computern oder darauf geschützten Anwendungen zu erhalten, um nahezu alle Funktionen auszuführen oder wichtige Daten auszuspionieren. • Ransomwares: Blockieren den Zugriff auf Dateien, Ordner oder Betriebssysteme oder verschlüsseln diese und drohen mit deren Löschung, um Lösegeld zu erpressen. • Fileless Malewares: Verstecken sich nicht in Dateien. Stattdessen schreiben sie sich in den Arbeitsspeicher. Da dieser nach einem Neustart geleert wird, hinterlassen sie keine auswertbaren Daten und sind schwer aufzuspüren. • Crypto Miner: Zielen auf die die Rechenleistung von befallenen Rechnern ab, um das rechenintensive Schürfen („Mining“) von Kryptowährungen vo­ ranzutreiben – damit arbeitet der Computer langsamer. • Botnet: Ist ein Zusammenschluss von unabhängigen Computern ohne Zustimmung ihrer Inhaber. Die mit Malware kompromittierten Rechner werden als Bot in das Botnet eingebunden. So entstehen große infizierte Zombie-­ Netzwerke, die sich fernsteuern lassen. Um unauffällig zu bleiben, greifen die Botnets nur auf einen kleinen Teil der Rechenleistung zu. Das Botnet kann die Ursprungsadresse von kriminellen Tätern verbergen – denn wenn ein Botnet eine Verbindung von einem infizierten Rechner zu einem dritten Rechner herstellt, ist die Ursprungsadresse verschleiert. Über das Botnet werden E-Mail-Spam-Kampagnen verschickt oder sog.  DDoS-Attacken ausgeführt, die die Verfügbarkeit von Servern über massenhaft falsche Anfragen überlasten und außer Kraft setzen können, um Organisationen zu erpressen. • Keylogger: Zeichnen Tastatureingaben auf, um sensible Daten wie Passwörter und Kreditkartendaten auszulesen. • Scareware: Als seriös ausgerichtete Programme verängstigen diese Anwender zuerst, um sie anschließend in vermeintlicher Sicherheit wiegend, dazu verleiten, eine kostenfreie Software zu installieren und dabei vortäuschen, das System auf Virenbefall und andere Probleme zu überprüfen. Nachdem angebliche Viren entfernt wurden, ist das System bereits kompromittiert. • Spyware und Adware: Als seriöse Software getarnt, spähen sie Verhaltensoder Nutzungsmuster, Passwörter oder andere sensible Daten aus bzw. spielen ungewünschte Werbung ein.

188

5  Das digitale Technologierad der nächsten Generation

3. Aufspüren von am wenigsten geschützten Netzwerken: Netzwerke, die am wenigsten geschützt sind und Schwachstellen aufweisen, stehen im Fokus. 4. Fortlaufende Änderung und Neuentwicklung von Schadprogrammen: Die Malwares werden stetig weiterentwickelt und neue Schadsoftwares erfunden und global eingesetzt. Wirtschaftliche Schäden durch Cyberattacken Verlaufen die Angriffe auf die IT-Systeme für die Angreifer erfolgreich, führen sie bei Unternehmen zu Serverausfällen oder Produktionsausfällen sowie finanziellen Schäden und Reputationsverlusten, beispielsweise wenn das Unternehmen temporär nicht mehr erreichbar ist. Wie eine 2018 durchgeführte Studie von Cisco zeigt, führt jeder zweite Cyberangriff zu Schäden von mehr als 500.000 $. Deloitte kommt auf einen durchschnittlichen wirtschaftlichen Schaden je Angriff in Höhe von 700.000 € (Buhleier et al. 2017). Laut einer Studie von Bitkom aus dem Jahr 2017 entstehen der deutschen Wirtschaft durch Cyberangriffe jährlich Schäden in Höhe von 51  Mrd.  €. So können insbesondere beim Verlust von Kundendaten massive Vertrauensverluste entstehen, die sich direkt auf erzielbare Umsätze auswirken. Wie sich Unternehmen gegen Hacking-Angriffe schützen Schadsoftware wird fortlaufend bösartiger und schwieriger zu bekämpfen. Die Angreifer nutzen die Tatsache aus, dass viele IT-Abteilungen noch auf ältere, reaktive Sicherheitsgenerationen setzen. Zudem hat die gestiegene Vernetzung der IT-Systeme eine neue Spielwiese für illegale Cyberhandlungen geschaffen. Viele Cyberkriminelle nutzen Verschlüsselungsverfahren, um ihre Angriffe länger unbemerkt durchzuführen. Denn je mehr Zeit die professionellen Angreifer haben, desto größer ist das Schadenpotenzial. Für einen wirksamen Schutz gegen Viren, Würmer, Trojaner, Spyware und Adware ist eine kontinuierliche Aktualisierung der Netzwerk-Firewall notwendig, um Angreifer daran zu hindern, Schadsoftware auf ein kompromittiertes System zu übertragen. Aufgrund der enormen Anzahl von Schadsoftwarevarianten, bietet der alleinige Speicher von Firewalls allerdings keinen hinreichenden Schutz. Vor diesem Hintergrund können Firewalls mit Cloud-Speichern arbeiten, um möglichst viele Malware-Varianten identifizieren zu können. Daher spielt die Firewall-Technologie nach wie vor eine wichtige Rolle, solange sie zusätzlich Intrusion Prevention Systeme (IPS) und Applikationskontrolle integriert. Heutzutage schützen sich Unternehmen mit einem einheitlichen Sicherheitssystem bestehend aus Next-Generation-Firewall, Sandbox, Bot-Sicherheit und Endpunktsicherheit wirksamer vor Angriffen. Verfügen sie dabei über eine präventive Gefahrenabwehr, sind sie in der Lage, Bedrohungsinformationen in Echtzeit über das gesamte System hinweg zu kommunizieren, um einen reaktionsschnellen Schutz zu ermöglichen. Eine moderne Cyber Security setzt auf ein einheitliches und zentral verwaltetes Sicherheitssystem zur

5.5 Biometrics

189

mehrschichtigen Echtzeitbedrohungsabwehr, das innerhalb der IT-Infrastruktur alle Netzwerke, virtuelle Instanzen in Rechenzentren, Cloud-Umgebungen und mobile Endgeräte überwacht und schützt. Um eine noch bessere Cybersicherheit sicherzustellen, stellen Unternehmen auf Sicherheit der fünften Generation um – mit einer erweiterte Gefahrenabwehr, die Angriffe auf einheitliche Weise in der gesamten IT-Infrastruktur abwendet (Checkpoint 2019).

5.5

Biometrics

Der technologische Fortschritt erlaubt in zunehmendem Maß eine schnelle und sichere Messung biologischer Charakteristika und deren Auswertung mit vertretbarem Aufwand in hoher Qualität. Die Basistechnologie Biometrie setzt dabei auf Erkennungsmethoden, die bestimmte Körpermerkmale teilweise in Kombination miteinander erfassen und vergleichen. Unterscheiden lassen sich biometrische Verfahren, die physiologische (passive) Merkmale wie Gesichtserkennung oder Fingerabdruck verwenden von verhaltensbezogenen (aktiven) Merkmalen wie Unterschrift oder Tastaturanschlagsrhythmus (Tab. 5.3).

Im Jahr 1998 etablierten sich erste biometrische Produkte am Markt, die Passwortanmeldungen am PC über eine Fingerabdruckerkennung ersetzten oder ergänzten. Rund 20 Jahre später sind die Anwendungsfelder hochkomplex, die biometrischen Erkennungssysteme vielseitig und anspruchsvoll geworden – angefangen bei der allgemeinen Sicherung des Benutzerzugangs oder der Personenidentifikation über den Zugang zu speziellen Dienstleistungen bis hin zur Gerätezugangskontrolle. Klassische, manuell einzugebende PIN-Nummern und Eingabemuster via Streichen über den Bildschirm werden durch biometrische Systeme ergänzt, da biometrische Körpermerkmale i. d. R. untrennbar mit dem Körper einer Person verbunden sind. Tab. 5.3  Messbare, individuelle biometrische Körpermerkmale Fingerabdruck Handgeometrie Handvenenstruktur Handlinienstruktur Nagelbettmuster Unterschrift

Gesichtsgeometrie Iris- und Retinastruktur Ohrform Zahnabdruck Stimme Stimmklangfarbe

Lichtbild Körpergröße Gangstil Körpergeruch Tastaturtippverhalten DNA

190

5  Das digitale Technologierad der nächsten Generation

Die biometrische Technologie macht mithilfe von digitaler Signalverarbeitung und einmaligen biometrischen Merkmalen Zutrittskontrollen und Identifikationssysteme genauer und sicherer. Digital Signal Processing ermöglicht eine Echtzeitanalyse von rechenintensiven Funktionen. So lassen sich Millionen von gespeicherten Benutzerdaten in Bruchteilen von Sekunden vergleichen. Dabei findet im ersten Schritt eine biometrische Erkennung statt, um die Identität einer Person zu authentifizieren bzw. eine vorgegebene Identität zu verifizieren oder zu widerlegen. Auf diese Weise lassen sich berechtigte Personen von unberechtigten Personen trennen. Von den drei Möglichkeiten der Authentifizierung von Personen anhand von Wissen, Besitz oder Sein bietet sich die biometrische Erkennung am ehesten an. Denn während bei Wissen ein künstlich generierter Code wie eine Geheimzahl oder ein Passwort oder bei Besitz ein Element wie eine Karte nur mittelbar durch eine gewollte Zuweisung einer bestimmten Person temporär zugeordnet ist, sind Seinsmerkmale wie körperliche Eigenschaften oder Verhaltensweisen unmittelbar und i. d. R. dauerhaft an eine bestimmte Person gebunden (BSI 2019). Biometrische Erfassung und Auswertung Bei der biometrischen Erfassung wird mithilfe verschiedener Technologien ein Muster des Originalmerkmals einer Person erzeugt und anschließend erfasst. Auf diese Weise ­entstehen Abbilder in Form von Rohdaten. Im nächsten Schritt werden die erzeugten Originale mithilfe eines Algorithmus in einen digitalen Datensatz umgewandelt – so entsteht ein sog. Template. Ein exakter Datenabgleich der Daten lässt sich nicht immer erreichen. Häufig erfolgen die automatisierten Entscheidungen bezüglich „match“ oder „non-match“ auf Basis zuvor bestimmter Parameter bzw. Parameterklassen, bei der die biometrischen Daten auf hinreichende Ähnlichkeit untersucht werden. Diese Unschärfe hat zur Folge, dass biometrische Verfahren lediglich mit systemtypischer Wahrscheinlichkeit bestimmen, ob es sich um wahre Berechtigte handelt oder nicht. Körper und Verhalten als neue Passwörter der Zukunft Während ältere Generationen überwiegend auf traditionelle Passworthygiene setzen, bedienen sich die jüngeren eher der Biometrie, Multifaktorverfahren oder Passwortmanager, um ihre Endgeräte und  Profildaten zu schützen. Laut der Studie Future of Identity von IBM aus dem Jahr 2018, bevorzugten Millennials biometrische Authentifizierung und mehrstufige Zugangsverfahren gegenüber der klassischen Passworteingabe. Damit priorisierten sie Sicherheit gegenüber Bequemlichkeit. Der durchschnittliche Internetnutzer managt rund 150 Online-Accounts, die eine Passworteingabe erfordern. Die Analysten gehen davon aus, dass die Anzahl an Zugängen in den kommenden Jahren auf 300  Accounts steigen wird. Von den insgesamt 4000 Befragten fühlten sich heute bereits 67 % mit biometrischer Authentifizierung wohl und 87 % waren sich sicher, dass sie sich auch in Zukunft mit biometrischen Technologien wohlfühlen werden. Mit den fortschreitenden technologischen Entwicklungen werden zukünftig neue und noch sicherere Möglichkeiten erforscht, um die Einzigartigkeit und Unverwechselbarkeit des menschlichen Körpers zur Absicherung der digitalen Identität zu nutzen. Die Zukunft

5.6  Big Data Analytics

191

des Identitätsschutzes liegt in Plattformen, die ein breites und sicheres Spektrum zielgruppengerechter Authentifizierungsverfahren vorhalten. Diesbezüglich sind eine Reihe biometrischer Multifaktorauthentifizierungen in nachfolgenden Einsatzfeldern vorstellbar. 1. An Bankautomaten nennen wir den Betrag, den wir abheben möchten – gleichzeitig wird unsere Gesichtsgeometrie gescannt. 2. Den Zugang zu Gebäuden erhalten wir, ohne einen Chip mit uns zu tragen. 3. Sicherheitskontrollen und Warteschlangen am Flughafen gehören der Vergangenheit an. 4. Kinder sind in der Lage, nur diejenigen Geräte zu bedienen, die ihre Eltern für sie freigeschaltet haben. 5. Endgeräte erkennen uns automatisch und rekonfigurieren sich automatisch gemäß unseres Nutzungsprofils. 6. Kameras erkennen beim Eintritt in ein Geschäft unsere Gesichtsstruktur oder unseren Gang wieder. 7. Die Haustür oder Bürotür verriegelt sich bei Verlassen des Raums eigenständig. 8. Robotern in Pflegeeinrichtungen passen ihre Assistenz- und Pflegeprogramme nach biometrischer Erkennung personenindividuell an.

5.6

Big Data Analytics

Daten sind neben Rohstoffen, Arbeitskraft und Kapital zum vierten Produktionsfaktor unserer Wirtschaft geworden. Der digitale „Datengoldrausch“ erfreut sich zunehmender Beliebtheit. Nur graben die Datenverwerter heute keine Flusslandschaften mehr um, wie vor mehr als hundert Jahren am Klondike, sondern sie baggern in riesigen digitalen Datenbergen. Die einen nennen sie digitale Mine, die anderen sprechen vom digitalen Rohstoff. Beide meinen das Gleiche: Big Data. Angetrieben von der sich beschleunigenden Digitalisierung, verdoppelt sich die weltweit verfügbare Datenmenge etwa alle zwei Jahre.

Die zeitgleiche und permanente Verfügbarkeit digitaler Daten hat unsere Kommunikation und unser Arbeitsleben verändert. Sprache und Schrift wurden entmaterialisiert, entkontextualisiert und in das universale digitale Format überführt. Ohne materiellen Kontext werden seitdem Zeit und Raum für uns unsichtbar überbrückt und in neuen Kombinationen wieder zusammengesetzt. Durch überragende elektronische Speicherungs- und Übertragungsmöglichkeiten lassen sich die körperlosen, digitalen Informationen massenhaft kopieren und transportieren. Dabei basiert der digitale Informationsaustausch zunächst

192

5  Das digitale Technologierad der nächsten Generation

auf einfachstem Binärcode. Mit seinen zwei Grundzuständen 0 (falsch) und 1 (richtig) ist der Code das Ergebnis maximaler Reduktion analoger Komplexität und Kontinuität. Über logische Verknüpfung und technische Verschaltung dieser einfachen Daten lassen sich höherwertige und komplexere Informationen gewinnen. Der Code bildet die Grundlage für die Verarbeitung von digitalen Informationen im intelligenten 010101-Zeitalter der kommenden Dekaden. An seine Verwendung ist die Existenz unserer digitalen Medien und Wirtschaft gebunden (Wolan 2013). Weltweite Datenmenge verdoppelt sich alle zwei Jahre In ihrer Ende 2018 veröffentlichten Studie prognostizierten das Marktforschungsunternehmen IDC und der Festplattenhersteller Seagate einen Anstieg des weltweiten Datenvolumens von 33 Zettabytes im Jahr 2018 auf 175 Zettabytes im Jahr 2025, wie die Abb. 5.10 veranschaulicht. Den Anstieg der Massendaten sahen die Analysten innerhalb von drei primären Entstehungsorten: . Unternehmenseigene Infrastrukturen und Mobilfunkmasten („the edge“) 1 2. Traditionelle und Cloud-basierte Daten-Center („the core“) 3. Endgeräte wie PC, Laptops, Tablets, Smartphones sowie Internet-of-Things-Geräte Den Mix aus diesen drei Edge-to-Core-to-Cloud-Datenquellen nennt IDC unabhängig davon, ob die Daten originär erstellt, aufgezeichnet oder repliziert wurden, globale Datensphäre. Viele der in den kommenden Jahren in ihrer Summe viele Trilliarden ausmachenden Texte, Bilder, Filme oder Klänge basieren auf Daten. Neben visuellen, auditiven und funktionalen Informationen werden inzwischen auch Gerüche, haptische Wahrnehmungen, Körperhaltungen und Emotionen digitalisiert. Gleiches gilt für Druck, Temperatur, Bewegung oder Beschleunigung, die sich über komplexe Prozesse in ein elektrisches Äquivalent umwandeln lassen. Zwischen der untersten Ebene der Maschinensprache und den von uns wahrgenommenen Informationen liegen bis zu zehn Übersetzungsebenen, um digitale Prozesse und Informationen auf den Displays von mobilen Endgeräten für unsere analogen Sinnesorgane begreifbar zu machen

Abb. 5.10  Anstieg des globalen Datenvolumens in Zettabytes. (Quelle: IDC 2018)

5.6  Big Data Analytics

193

Quellen (v.l.n.r.): Pixabay ID: 874480 / Pexels ID: 325229 / Pixabay ID: 2476783 / Pixabay ID: 1307227 / Pixabay ID: 1614223 / Pexels ID: 1089438 / Pexels ID: 920116 / Pixabay ID: 3041437

194

5  Das digitale Technologierad der nächsten Generation

Komplexer, wertschöpfender Rohstoff für die Digitalwirtschaft Wie Abb. 5.11. deutlich macht, lässt sich Big Data in vier Kategorien unterscheiden: Datenmenge, Datenvielfalt, die Geschwindigkeit der Datengenerierung und Analytics. Mit Analytics sind Methoden, Technologien, IT-Architekturen und Werkzeuge gemeint, um die exponentiell steigende Menge vielfältiger Informationen in besser fundierte Managemententscheidungen zu übertragen. Die Schlüsseltechnologie ist komplex, da sich auch die Bandbreite und Struktur von Datentypen und Datenquellen, die Datengüte und -richtigkeit sowie das Erkennen von Mustern und Zusammenhängen und damit die Datenverwertbarkeit hinzuzählen lassen. Mittels Big Data Analytics soll Unternehmen eine wirtschaftliche Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse gelingen. Eine Kreuzung aus IT, Mathematik, Intuition und praktischem Verständnis macht die Datenmassen zunächst beherrsch- und auswertbar und wandelt einen Teil der Daten anschließend in den neuen wertschöpfenden Rohstoff für die digitale Wirtschaft um. Um aus den gigantischen Datenmengen Nutzen zu ziehen, werden Big-Data-Analytics-Methoden mit speziellen Algorithmen und Verfahren angewendet (Reinheimer 2017). So erweitert Big Data Analytics das Feld Business Intelligence um den Blick in die Zukunft und gibt Antworten auf die Fragen nach Gründen, Auswirkungen, Wechselbeziehungen oder Folgen von Ereignissen (Hölscher 2017). Folglich schließt Big Data Analytics auch die Vorhersagemodelle Predictive Analytics und Prescriptive Analytics ein. Predictive Analytics Predictive Analytics steht für einen Mix aus Data Mining, Predictive Modeling und maschinellem Lernen zur Analyse von historischen und aktuellen Daten, um Vorhersagen über Ereignisse oder Verhaltensweisen zu treffen. Mithilfe von Prognosemodellen sind

Abb. 5.11  Big Data Klassifikation. (Quelle: Bitkom)

5.6  Big Data Analytics

195

Unternehmen in der Lage, zunehmend sicher in die Zukunft zu blicken und ihre Arbeitsabläufe über die analytische Innensicht in die wachsenden Datenströme effizienter zu gestalten. In Kombination mit Machine Learning erkennen die selbstlernenden Prognosesysteme, ob sich Rahmenbedingungen verändern und bestimmte Ereignisse einmalig oder regelmäßig auftreten. Neue Protokolle machen es möglich, Daten unterschiedlicher Art in Echtzeit zu aggregieren, zu indexieren und je nach Bedarf kontextuiert auszugeben. Dabei lassen sich über die anonymisierte Erfassung, Granularisierung und erneute Zusammensetzung der Datenmengen Datenschutzbedenken weitgehend aus dem Weg räumen. Im Lauf der Zeit kommen Unternehmen zu besseren Entscheidungen, wenn sie ihre Geschäftsprognosen und Investitionsentscheidungen mit höherer Plausibilität und Eintrittswahrscheinlichkeit treffen können. Eine der ersten Fragen bei Meetings auf den Chefetagen wird daher in den kommenden Jahren lauten: „Was sagen uns die Daten?“ Anwendungsbeispiele bei Big Data ( Predictive) Analytics

• Mithilfe von Prognosemodellen können Händler ihre Warenkörbe und Kaufwahrscheinlichkeiten verlässlicher analysieren sowie ihre Bedarfsplanung, Lagerhaltung und Artikelplatzierung in Echtzeit anpassen. • Kreditinstitute spüren potenzielle Betrüger auf und berechnen ihre  Kreditrisiken und Ausfallwahrscheinlichkeiten von Krediten mit höherer Verlässlichkeit. • Kognitive Assistenzsysteme lernen mithilfe der aufgezeichneten Daten ihrer Besitzer deren Mimik, Gesten und Gefühlshaushalte zu deuten und verhalten sich bedarfsgerechter und menschlicher. • Krankenkassen können präzise prognostizieren, welche Patienten im kommenden Jahr einen Krankenhausaufenthalt haben werden. • Musikunternehmen sehen die nächsten großen Hits voraus. • Autoversicherer können vorhersagen, welche Fahrzeuge mit hoher Wahrscheinlichkeit in Verkehrsunfälle verwickelt sein werden und Autobesitzern finanzielle Anreize für Schadensfreiheiten anbieten. • Bei Predictive Maintenance setzen Unternehmen auf Echtzeitwartungssysteme, die es erlauben, Vorhersagen über mögliche Betriebsereignisse in der Zukunft zu treffen. Im Zuge vorausschauender Instandhaltung sinken Ausfallzeiten und Ressourcenverschwendung. Materialverbräuche lassen sich überwachen, um rechtzeitig Nachbestellungen sicherzustellen und Lagerzeiten zu minimieren. • Polizei und Rettungsdienste erhalten exakte Informationen darüber, wo genau in den nächsten Minuten Hilfe benötigt wird, wenn Sport-, Konzert- oder Massenveranstaltungen gerade aus dem Ruder zu laufen scheinen. Prescriptive Analytics Nach der deskriptiven Analytik, die uns darüber informiert, was in der Vergangenheit passiert ist, und der prädiktiven Analytik, die für uns vorhersagt, was passieren wird, geht die präskriptive Analytik noch einen Schritt weiter und beantwortet die Frage, wie wir heute

196

5  Das digitale Technologierad der nächsten Generation

handeln müssen, wenn ein zukünftig hochwahrscheinliches Ereignis eintreten wird. Damit dient Prescriptive Analytics der Entscheidungssteuerung. Sie zeigt auf, wie Prozesse gesteuert und Entscheidungen unterstützt werden können und welche Entscheidungen sinnvoll sind (Rauschert und Simroth 2014). Stand heute liegt der Fokus häufig noch auf der rückblickenden Datenauswertung.  Prognosedaten und Daten zur Optimierung von Entscheidungen nehmen dagegen  noch den geringeren Teil der Unternehmensanalytik ein. Doch langsam verschiebt sich dieses Bild. Je zuverlässiger präskriptive Verfahren und damit datenbasierte Handlungsempfehlungen werden, desto häufiger werden Unternehmen ihre Entscheidungen mithilfe präskriptiver Analyse optimieren und entsprechende Maßnahmen aus Modellsimulationen und Optimierungskalkulationen zur besseren Geschäftssteuerung ableiten. Ökonomische Verwertung der wachsenden Datenmengen Big Data Analytics steht für Technologien im Kontext riesiger Datenmengen, die mit gewöhnlichen Mitteln der Datenverarbeitung nicht auszuwerten sind, da sie zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert sind. Je größer sich die Vielfalt an Strukturen und Interpretationsmöglichkeiten von aufgezeichneten Daten darstellt, desto tragender werden die spezifischen Eigenschaften von Big-Data-Technologien und grenzen Big Data von klassischen Ansätzen der Business Intelligence ab (Hölscher 2017). Erst wenn sich die Massendaten kommerziell verwerten lassen, werden sie zum neuen vielzitierten Rohstoff unseres Jahrhunderts. Dann verschaffen sie Unternehmen strategische Vorteile. Vor diesem Hintergrund spielt die Fähigkeit der Analyse und Verwertung von wachsenden Datenmengen eine ganz zentrale Rolle. Denn sind die Fähigkeiten zur ganzheitlichen Sammlung, Aufarbeitung, Analyse und Auswertungen von Daten im Unternehmen nur schwach ausgeprägt, lassen sich Erkenntnisgewinne deutlich schlechter erschließen – ohne Datenkompetenz kein tief gehendes Kundenverständnis; ohne Datenkompetenz schlechteres Aufspüren von Effizienzreserven; ohne Datenanalysekompetenz geringeres exponentielles Digitalwachstum. Datenkompetenz und Arbeitsproduktivität Eine 2017 durchgeführte Umfrage des US-Datenanalyse-Unternehmens Qlik zeigte, dass sich mit 17 % nicht einmal jeder fünfte in Europa befragte Arbeitnehmer datenkompetent fühlte. Der Anteil datenkompetenter Beschäftigter lag in Deutschland mit 14 % sogar unter dem europäischen Durchschnitt. Gemeint war damit in den verfügbaren Daten zu lesen, mit ihnen zu arbeiten, sie zu analysieren, sie sicher zu interpretieren, sie zu hinterfragen, Wechselwirkungen zwischen Datenbezugspunkten zu erkennen und datenbasiert zu argumentieren. Die Studienleiter gingen noch einen Schritt weiter und beobachteten einen engen Zusammenhang zwischen unterschiedlichen Ausprägungen der Datenkompetenz und der Arbeitsproduktivität. Dabei nahmen sich über 75 % der 5000 Befragten, die sich selbst als datenkompetent einstuften, im Rahmen ihrer Tätigkeit als besonders leistungsstark wahr. Darüber hinaus wiesen die Wissenschaftler auf einen wichtigen Punkt für Un-

5.7  Voice Recognition

197

ternehmen hin: 65 % der Befragten signalisierten, mehr Zeit und Energie in die Verbesserung ihrer eigenen Datenkompetenz zu investieren, sollten sich innerhalb des eigenen Unternehmens Chancen dazu eröffnen. Qualität vor Quantität Da die Menge, Vielfalt und Bedeutung von Daten weiter exponentiell wachsen wird, sind Unternehmen im kommenden Jahrzehnt mehr denn je dazu angehalten, sich auf die für sie relevanten Daten zu konzentrieren. Denn nicht alle Daten sind gleichermaßen wichtig. Daten ohne Kontext besitzen kaum Wert. Erfolgreich bei der ökonomischen Datenverwertung werden v. a. diejenigen Unternehmen sein, die sich auf die entscheidenden Teilmengen von Daten mit den jeweils höchsten Auswirkungen konzentrieren, wenn sie „always on“ sind, also die ganze Zeit Daten erfassen, überwachen, zuhören und zuschauen und immer weiter dazulernen (Reinsel et al. 2018).

5.7

Voice Recognition

Als Teilgebiet der angewandten Informatik, Ingenieurwissenschaften und Computerlinguistik beschäftigt sich die automatische Spracherkennung mit der Analyse und Entwicklung von Verfahren, die Computern die gesprochene Sprache über automatische Datenerfassung zugänglich machen. Sie findet mithilfe von akustischen Modellen, Wortdatenbanken und Sprachmodellen statt und ist zu unterscheiden von der reinen Stimmerkennung - dem biometrischen Verfahren zur Personenidentifikation. Spracherkennung erfolgt i. d. R. Cloud-basiert. In der Cloud stehen ausreichend Rechnerkapazitäten zur Verfügung, um den sprachgestützten Programmen besondere Fähigkeiten zu verleihen. Anschließend kann die Technologie die enorme Komplexität der natürlichen Sprache noch besser verstehen.

Digitale Spracherkennung begann in den 1950er-Jahren Die automatische Spracherkennung als Hard- oder Software zur Umwandlung von Sprache in Text und von Text in Sprache ist nicht neu. Lange vor Siri stellte Bell Laboratories sein System Audrey 1952 vor. Audrey war in der Lage, einzelne gesprochene Zahlen zu verstehen. In dieser Pionierzeit war es allerdings noch notwendig, zwischen den Zahlen lange Pausen zu machen, damit das System die Ziffern verstehen konnte. Im Jahr 1962 präsentierte IBM das erste digitale Spracherkennungsgerät Shoebox. Das System war in der Lage, 16 gesprochene Wörter und Zeichen zu erkennen: die Zahlen von 0 bis 9 sowie

198

5  Das digitale Technologierad der nächsten Generation

einige mathematischen Anweisungen wie Minus, Plus, Zwischensumme oder Summe. Erneut zehn Jahre später erkannte das Harpy Speech Recognition System bereits 1000 Wörter. Es sollte weitere 20 Jahre dauern, bis IBM 1991 sein Spracherkennungssystem Tangora 4 auf der CeBIT vorstellte, das rund 25.000 deutsche Wörter erkennen konnte. Um das System vor Störgeräuschen in der Umgebung zu schützen, fand die Präsentation in einem vom Messelärm abgeschirmten Raum statt. Steigende Leistungsfähigkeit der Technologie Heute ist Spracherkennung allgegenwärtig und befindet sich auf dem Sprung zur Basistechnologie. Zwar stoßen Sprachassistenzsysteme, sobald die erfassten Informationen komplexer werden, in der Praxis noch an ihre Grenzen. Doch wird sich dies zukünftig ändern - die Leistungsfähigkeit der Systeme steigt von Jahr zu Jahr. Bereits 2017 waren Computer zum ersten Mal in der Lage, gesprochene Wörter genauso gut zu verstehen wie Menschen. Mit den kognitiven Assistenten können sich Menschen mittlerweile ganz normal unterhalten und die Maschinen über die gesprochene Sprache steuern bzw. Informationen sprachgesteuert abrufen. Gleichzeitig sinkt die Anzahl der Anwender, die davor zurückscheuen, sich mit digitalen Endgeräten ganz normal zu unterhalten. Visuelle und auditive Ausgabe im Vergleich Auch wenn wir schneller sprechen als tippen, können wir komplexe Informationen wesentlich schneller visuell erfassen als auditiv (Jacobsen 2018). Eine rein auditive Ausgabe ist daher nicht in jeder Situation von Vorteil (Tab. 5.4). Deshalb lassen sich sprachbasierte Dialogsysteme als willkommene Ergänzung zur Ein- und Ausgabe von Textinformationen an Bildschirmen verstehen. Ausblick Spracherkennung und Sprachsteuerung Da Nutzungskontexte bei Sprachen extrem umfangreich sind, liegt die Herausforderung für Sprachassistenzsysteme nicht allein darin, die gesprochene Sprache, Syntax und Grammatik richtig zu verstehen. Vielmehr ist der Kontext richtig zu interpretieren und zu Tab. 5.4  Vorteile von visuellen und auditiven Ausgabesystemen (in Anlehnung an Jacobsen 2018) Visuelle Ausgabe vorteilhaft bei Längeren Texten Komplexen Daten wie Landkarten Großen Datenmengen wie Aktienkursen Produktvergleichen Produkten, bei denen visuelle Merkmale eine Rolle spielen, wie Kleidung Tendenziell ruhigen Umfeldern wie in Bus, Bahn oder Flugzeug

Auditive Ausgabe vorteilhaft bei Kurzen Informationen Warnmeldungen Statusmeldungen Langen, linearen Texten wie Hörbüchern Mehreren Personen, die zuhören Umfeldern, die wenig Ablenkung zulassen, wie Autofahren

5.8  3D/4D Printing

199

algorithmisieren. Dazu bedarf es eines enormen Fundus an Referenzmodellen (Puscher 2017). Laut dem Suchmaschinen-Chef von Google, Ben Gomes, sind Fortschritte bei der maschinellen Verarbeitung der natürlichen Sprache in Form von Spracherkennung und Sprachverständnis essenziell für die Zukunft des Internets (Gibbs 2018). Gomes geht davon aus, dass die Suchmaschine Google in den kommenden Jahren in der Lage sein wird, auch komplexe Anfragen über die gesprochene Sprache richtig zu erfassen, und Nutzer irgendwann ganz normale Gespräche mit Google führen können. Gemäß Fabrice Rousseau, General Manager Europe für Alexa Skills und Voice Services, haben sich die Sprachtechnologien seit 2013 enorm verbessert und Verbraucher der neuen Technologien immer weiter angenähert, sodass personalisierte Sprachsteuerung auch jenseits der ­eigenen vier Wände allgegenwärtig werden, wie z. B. im Auto, im Hotel, im Geschäft oder unterwegs via Headset. In der Folge gilt es als sehr wahrscheinlich, dass sich Spracherkennungs- und Sprachsteuerungssysteme zukünftig als bequeme digitale Ein- und Ausga­ bemöglichkeiten weiter ausbreiten werden. Die Kombination aus Spracherfassung, -verarbeitung und nachgelagerten Diensten wird das Nutzer- und Konsumverhalten hörbar verändern. Darauf aufbauend werden Anwender die immer leistungsfähigeren Technologien dazu nutzen, kontextsensitive Inhalte in Echtzeit abzurufen oder Entscheidungen an die persönliche Computerassistenz zu delegieren. Die dabei stattfindenden Überlappungen zu kognitiven Assistenzsystemen werden in Kapitel. 5.12 dargestellt.

5.8

3D/4D Printing

Bei der 3D-Drucktechnologie handelt es sich um ein computergesteuertes, additives Herstellungsverfahren, das bestimmte Materialien Schicht für Schicht aufträgt, um dreidimensionale Objekte zu erzeugen. Dabei können physikalische oder chemische Härtungs- oder Schmelzprozesse Anwendung finden. Der schrittweise Aufbau erfolgt computergesteuert aus festen oder flüssigen Werkstoffen in Anlehnung an vordefinierte Maße und Formen. Typische Werkstoffe für die Schlüsseltechnologie sind Pulver und Legierungen aus Kunststoff, Kunstharz, Keramik, Gips, Glas, Silber oder Mineralstaub. Zudem lassen sich Metalle bei dieser Schlüsseltechnologie einsetzen – die additive Metallverarbeitung wächst neben der Kunststoffverarbeitung kontinuierlich. In Abgrenzung zum 3D-Druck, handelt es sich beim sog. 4D-Druck um die additive Herstellung von 3D-Objekten, die sich nach dem Ausdruck mithilfe äußerer Einwirkung wie mechanischer Kraft, Temperatur oder Magnetfeld neu formen oder sich selbst zusammensetzen.

200

5  Das digitale Technologierad der nächsten Generation

Vorteile der 3D-Drucktechnologie Wenngleich additive Fertigungsverfahren bislang nur eingeschränkt eine Alternative für die Massenproduktion darstellen, kann sich 3D-Druck neben den traditionellen Fertigungsverfahren durch eine Reihe von Vorteilen behaupten: • Hohe Fertigungsgeschwindigkeit: Unabhängig davon, ob es sich um Endprodukte mit komplexer oder einfacher Geometrie handelt, bietet 3D-Druck schnelle Fertigungszeiten, weil bestimmte Prozessschritte im Vergleich zur klassischen Produktion wegfallen. So fällt die Produktionszeit beim konventionellen Spritzgussverfahren je Bauteil deutlich geringer aus als beim 3D-Druck, auch entfällt die Entwicklung von Werkzeugen und Formen komplett. Weiterhin sind kurzfristige Designänderungen ohne großen Aufwand realisierbar. Dafür ist der Weg bis zum Produktionsbeginn recht aufwändig. • Höhere Fertigungsflexibilität: 3D-Druck bietet hohe Flexibilität in der Fertigung. Während sich die Endprodukte in der Massenproduktion durch Uniformität auszeichnen, da die Herstellung auf Basis derselben Form erfolgt, sind die 3D-Drucker auch in der Lage, individuelle Lösungen hervorzubringen. So lassen sich Sonderanfertigung oder Kleinserien bis hin zu Unikaten mit nur geringen Anpassungen am 3D-Modell relativ einfach realisieren. Auch ist Print-on-Demand möglich. • Hohe Fertigungsfreiheitsgrade: 3D-Druck bietet die Möglichkeit, sehr komplexe Geometrien herzustellen. Das Ausdrucken von Produkten mit komplexen Hohlräumen, komplizierten Architekturen oder großen Überhängen stellt im Vergleich zur traditionellen Fertigung keine große Herausforderung dar. Darüber hinaus gibt es so gut wie keine Designrestriktionen. • Ressourcenschonende Herstellung: 3D-Druck zeichnet sich durch geringe Abfallprodukte bei der Herstellung aus. Häufig ist auch die eingesetzte Materialmenge niedriger als bei konventioneller Herstellung. Darüber hinaus lässt sich nicht verwendetes Druckmaterial für zukünftige 3D-Drucke wiederverwerten. • Geringere Lagerbestände und Lieferzeiten: Da sich Produkte auch vor Ort fertigen lassen, verringern sich Lagerbestände und Lieferzeiten.

Industrielle 3D-Drucker setzen sich durch Die industrielle 3D-Drucktechnologie zeigt sich im Aufwind.  Laut Bitkom, setzten 2019 32 % der deutschen Unternehmen die 3D-Drucktechnologie ein. SmarTech Publishing ermittelte 2018 ein globales Umsatzwachstum der additiven Fertigung mit Hardware, Software, Materialien und Services von 18 % im Vergleich zum Vorjahr und Gesamterlöse von 9,3 Mrd. $. Statista prognostizierte den weltweiten Umsatz der 3D-Druckindustrie im Jahr 2020 auf 22,3 Mrd. $. Mit Blick auf jährliche Wachstumspotenziale standen bei den Kollegen von Strategy& 2018 bei 3D-Druck insbesondere fünf Branchen weit vorn:

5.8  3D/4D Printing

• • • • •

201

Luft-/Raumfahrt mit 23 % Medizintechnik mit 23 % Automobilbranche mit 15 % Industrie allgemein mit 14 % Einzelhandel mit 13 %

Die 2019 veröffentlichte Studie des britischen Marktforschungsunternehmens Context bezifferte bei industriellen 3D-Druckern sogar ein 27 %iges Absatzwachstum. Etwas geringer fiel das Wachstum im sog. professionellen Bereich aus. Dagegen war im Consumer-­ Bereich bis 2500  $ je 3D-Drucker ein Abwärtstrend zu erkennen: Im Vergleich zum Vorjahr wurden rund 3 % weniger Drucker abgesetzt. Scheinbar sind die Kundennutzen im privaten Consumer-Segment, das überwiegend auf Modellbau oder Do-it-yourself-­ Anwendungen abzielt, noch begrenzt. Vom 3D- zum 4D-Druck Begonnen hat der 4D-Druck mit der Erforschung des Warping-Effekts, der den Verzug von Objekten beschreibt. Werden Bauteile bestimmten Umweltbedingungen ausgesetzt und kühlen sich schnell ab oder erhitzen sich, neigen sie im Allgemeinen dazu, sich zu verziehen. Durch exakte Erforschung dieses Effekts wurden Berechnungsmodelle aufgestellt, die eine verlässliche Grundlage boten, den Verzug produktiv und kommerziell zu nutzen. Auf diese Weise ließen sich Objekte modellieren, die sich bei Hitze auffalten oder in verschiedene Richtungen ausdehnen. Trotz hoher Wachstumsraten, wird die aufstrebende 4D-Druck-Schrittmachertechnologie, was ihr kommerzielles Potenzial betrifft, voraussichtlich noch für lange Zeit hinter dem 3D-Druck-Verfahren bleiben. Laut einer 2018 veröffentlichten Studie von Markets & Markets soll der 4D-Markt bis 2025 ein Volumen von rund 540 Mio. US$ erreichen.

Zukünftige 4D-Druck-Anwendungsfelder

1. In der Medizin werden zukünftige 3D-Biodrucker neue Organe drucken. Mit 4D-Druck ließe sich das Transplantationsproblem bei Kindern möglicherweise lösen. Da der Körper von Kindern mit der Zeit wächst, wachsen auch ihre Organe mit. Traditionelle Transplantationsverfahren stoßen hier an Grenzen, wenn vorher funktionsfähige Organe auf Dauer nicht mehr wie gewünscht arbeiten. 4D-Druck könnte hier Abhilfe schaffen. 2. 4D-Druck könnte in der Zukunft den bisherigen 3D-Druck in der Bauindustrie weiterentwickeln, beispielsweise, in dem sich mithilfe von intelligenten Werkstoffen selbstregenerierende Bauteile wie Wasserrohre herstellen lassen. Dies hätte zur Folge, dass Wasserrohre in Gebäuden aller Art nicht alle 30–40 Jahre kostenintensiv restauriert werden müssten.

202

5  Das digitale Technologierad der nächsten Generation

3. Bisher konnte sich 3D-Druck in der Mode- und Sportindustrie nicht durchsetzen. 4D-Druck könnte dies ändern. Beispielsweise sind zukünftig K ­ leidungsstücke vorstellbar, die sich je nach Wetterlage anpassen. Stoffjacken könnten sich bei Regen in kurzer Zeit zu Regenjacken umfunktionieren. Oder professionelle Langstreckenläufer, deren Füße sich beim längeren Laufen ausdehnen, könnten von uneingeschränkter Passgenauigkeit profitieren, da die eingesetzten Schuhe während des Lauftrainings sozusagen mitwachsen und im Anschluss an Laufeinheiten wieder in ihre Ursprungsform zurückkehren. 4. Forscher am MIT Self-Assembly Lab arbeiten daran, dass sich Gegenstände selbst zusammenbauen. Beispielsweise könnte sich zukünftig ein Smartphone selbst fertigen. Sogenannte Trigger sorgen dafür, dass sich die einzelnen Komponenten innerhalb von wenigen Sekunden an der richtigen Stelle zusammenbauen. Gleiches gilt für 4D-Druck-Möbel, nachdem sie mit Wasser in Berührung gekommen sind. Auch im größeren Stil könnte 4D-Druck den Wohnungsbau vereinfachen mit Blöcken, die sich selbstständig zu Wohnungen oder Häusern umformen (Wellbrock 2017) 5. 4D-Druck könnte die Logistik revolutionieren, wenn sie einen platzsparenden und damit kosteneffizienteren Transport ermöglichen. Große Objekte ließen sich beispielsweise in Würfel- oder Plattenform ausdrucken und am Zielort über eine sensorisch ausgelöste Bewegung oder Verformung in ihren Zielzustand überführen.

5.9

Virtual, Augmented, Mixed Reality

Die Schlüsseltechnologien Virtual Reality, Augmented Reality und Mixed Reality stehen für digitale, sinnlich erfahrbare Erlebnisräume und Informationseinblendungen, bei denen die erfahrene Realität mithilfe von speziellen brillenähnlichen Ausgabegeräten verändert oder erweitert wird. Bei virtueller Realität wird ein Bewusstseinszustand der sog. Immersion erzeugt, bei dem sich die Wahrnehmung der eigenen Person in der realen Welt vermindert und eine stärkere Identifikation mit dem „virtuellen Ich“ stattfindet. Das virtuell getriggerte Gefühl lässt sich nur sehr schwer beschreiben – unsere Vorstellungskraft ist dafür einfach zu limitiert. Als Anwender vergisst man manchmal schon nach wenigen Sekunden, dass man sich lediglich in einem virtuellen Raum befindet und darin bewegt. Alles wirkt so real um einen selbst herum. Die Erfassung dieser beeindruckenden Welt in all ihrer ganzheitlichen Tiefe wird erst mit den entsprechenden Ausgabegeräten und virtualisierten Inhalten möglich. Da sich bei Virtual-Reality-Anwendern relativ schnell das Gefühl einstellen kann, an einem ganz anderen Ort zu sein, werden die Anwendungen mit virtuell erzeugten Realitäten auch als immersive Erfahrungen bezeichnet.

5.9  Virtual, Augmented, Mixed Reality

203

Zeitreise: Entwicklung von virtuell erzeugten Realitäten • 1957 stellte der Kameramann Morton Heilig den ersten Virtual-Reality-Automaten unter dem Namen Sensorama vor – als erweiterte Idee des Kinos zu der eines Theaters der „totalen Illusion“. Für 25 Cents erlebten die Besucher in den USA einen historischen Meilenstein. Die virtuelle Realitätsmaschine entführte sie in eine andere Welt. Jeder, der seinen Kopf in die Kabine steckte und dabei auf dem beweglichen Stuhl Platz nahm, erlebte eine Motorradfahrt aus Brooklyn aus Fahrersicht. Echter Wind wehte durch die Haare. Ein Geruch strömte aus dem Automaten. Der Stuhl vibrierte und neigte sich zur Fahrtrichtung. Sensorama war das erste multisensorische Kino, in dessen Filme die Zuschauer eintauchen konnten (Fischer 2018a, b). • 1969 präsentierte Ivan Sutherland das erste Head-Mounted-Display (HDM) für einen Computer an der Harvard University. Dieses konnte Liniengrafiken in 3D darstellen. Allerdings war es damals so noch so schwer, dass es an der Decke des Labs befestigt werden musste. • 1984 entwickelte der visionäre Informatiker und VR-Pionier Jaron Lanier die VR-Brille EyePhone sowie den ersten kommerziellen Datenhandschuh und einen kompletten VR-Anzug, der die Bewegung des kompletten Körpers erfassen konnte. Diese Produkte waren damals noch ihrer Zeit voraus und konnten sich ähnlich, wie später die Headsets von Sega VR, Nintendo Virtual Boy, Forte VFX1 oder Philips Scuba wegen geringer Auflösung, technischen Unzulänglichkeiten und hoher Preise nicht am Markt durchsetzen (Länger 2017). • 1992 wurde CAVE als erster Raum mit einer virtuell projizierten Umwelt am Electronic Visualization Laboratory der University of Illinois vorgestellt. In der Folge fanden im professionellen Bereich VR-Lösungen in speziellen VR-Räumen gekoppelt an Workstations häufiger Anwendung. • 1992 setzte die US AirForce mit Virtual Fixtures das weltweit erste Augmented-Reality-System ein. Um die sensorische Umgebung für Piloten weiter zu verbessern, entwickelte Louis Rosenberg eine Plattform, die 3D-Realitäten erzeugte. • Bis 2012 sollte es dauern, als der Computerspiele-Entwickler John Carmack auf den Studenten Palmer Luckey stieß, der seit 2009 in der Garage seiner Eltern den Prototypen einer neuartigen VR-­Brillen-­Generation entwickelte und diesen mit auf die Spielemesse E3 nahm und das Publikum begeisterte. Als Kickstarter-Projekt gestartet, wurde Luckeys Unternehmen Oculus für 2,4 Mrd. US$ von Facebook übernommen und Jahre später mit der Rift VR ein technisch deutlich verbessertes Display für Endkunden auf den Markt gebracht. Mit Oculus werden erstmals moderne, immersive, realitätsnahe Erfahrungen möglich. • 2015 stellt Microsoft seine innovative Mixed-Reality-Technologieplattform der Öffentlichkeit vor – zusammen mit seiner Datenbrille HoloLens, die dreidimensionale Objekte in die Umwelt projizieren kann und über Sprach-, Gesten- und Blicksteuerung verfügt. • 2016 führte der Oculus-Wettbewerber HTC sein Konkurrenzprodukt Vive auf dem Markt ein. Beide Hersteller verwendeten für die Erfassung eine Kombination aus internen Gyrometern sowie Beschleunigungssensoren. So entstanden moderne Virtual-Reality-Brillen als auf dem Kopf tragbare Geräte, die einen intuitiven Eintritt in virtuelle, immersive Welten ermöglichten, die reale Außenwelt teilweise oder komplett ersetzten und die Kopf- und teilweise auch Körperbewegungen ihrer Träger auf Avatare oder virtuelle Kameras übertrugen. Zahlreiche andere Hersteller zogen mit eigener Hard- und Software nach.

204

5  Das digitale Technologierad der nächsten Generation

Quellen (v.l.n.r.): Ivan Sutherland – own work (reseachgate.net) / Davepape – own work (wikipedia.org) / Tim Reckmann  – own work Werk (wikipedia.org) / Pixabay ID: 1917737 / Minecraftpsyco – own work (wikipedia.org) / Wilder Pubn (amazon.de) / kickstarter.com / Pexels ID: 911601 - falscher Zeilenumbruch bei CAVE in der Grafik (1992)

5.9  Virtual, Augmented, Mixed Reality

205

Wie sich die drei Technologien voneinander unterscheiden VR: Virtual Reality ist der Übergriff für eine Technologie, die die Darstellung und gleichzeitige Wahrnehmung von physikalischer Realität in einer in Echtzeit computergenerierten, interaktiven Umgebung ermöglicht. Dabei tauchen Anwender über ein Head-Mounted-Display in eine in sich geschlossene künstliche Umwelt ein und stehen in ihrer Wahrnehmung mitten im Inhalt. Auf diese Weise werden sie zu Augenzeugen einer Handlung, die sie in 360° umgibt. Den Bildausschnitt geben die Anwender selbst vor, indem sie einfach ihren Kopf bewegen – genau so, wie in der wirklichen Realität (Albrand 2017). AR: Augmented Reality legt als digital erweiterte Realität eine virtuelle Informationsschicht über physische Objekte im Sichtfeld eines Anwenders. AR hat nicht den Anspruch, den Anwender komplett in eine virtuelle Realität zu versetzen. Vielmehr ergänzt sie die echte Realität durch die Einblendung von weiteren kontextbasierten Elementen und Informationen. Die Technologie funktioniert grundsätzlich auch ohne Brille, beispielsweise auf einem Smartphone oder Tablet. MR: Mixed Reality projiziert als vermischte Realität 3D-Objekte in Hologrammform in eine physische Umgebung. Im Jahr 2015 stellte Microsoft mit seiner HoloLens ein AR-System vor, das virtuelle Objekte über ein halbtransparentes Display in reale Szenen einfügt. Dabei erfassen in der Brille integrierte Rechner und Sensoren die Umwelt des Anwenders und ermöglichen ihm eine genaue Positionierung und Interaktion zwischen virtuellen und realen Objekten. Die Steuerung erfolgt via Spracherkennung und Gestenerkennung über das integrierte Kamerasystem (Länger 2017). Als Display dienen zwei transparente Screens – eines vor jedem Auge, die einen Teil des Blickfelds abdecken. Mit Magic Leap gibt es ein weiteres Mixed-Reality-Unternehmen, dessen Produkt Magic Leap One virtuelle Objekte in die Wahrnehmung der Realität einfügen kann.

Langsamere Marktdurchdringung als erwartet Nachdem alle drei Hersteller Facebook, HTC und Sony hochwertige Brillen auf den Markt brachten, schien der große Durchbruch der Technologie im Massenmarkt bevorzustehen. Doch entwickelte sich die VR-Technologie in den Folgejahren nicht so schnell, wie einige Studien prognostizierten. Die Verkaufszahlen von VR-Brillen lagen vielerorts unter den Erwartungen, um kostenintensive Nachfolger zu rechtfertigen. Erst im dritten Quartal 2018 stiegen die Verkaufszahlen von VR-Headsets im Vergleich zum Vorjahr laut DigiTimes um 9,4 % an. Bisherige Gewinner der Technologie waren v.  a. die Hersteller von

206

5  Das digitale Technologierad der nächsten Generation

Standalone VR-Headsets. Während Samsung‘s Gear VR Verluste von rund 58 % hinnehmen musste, da seine Smartphones teils nicht mehr kompatibel mit der Headset-Halterung waren, verbuchten Standalone-Geräte wie Oculus GO und Mi VR ein Wachstum von über 420 % und machten 2018 20,6 % des gesamten VR-Markts aus (Petzold 2018). So verkauften Sony 463.000  VR-Headsets, Oculus 300.000 sowie HTC 230.000 weltweit (Abb. 5.12). Mit dem PC- und kabelgebundenem Modell Rift für aufwendig gerenderte VR-Welten und dem kabelfreiem, auf Portabilität ausgerichtetem Modell Go, dominierte die Facebook-Tochter Oculus den VR-Markt mit rund 26 % Marktanteil. Laut IDC lag der Grund für die steigenden Verkäufe in den Rabatten auf bereits verfügbare Produkte sowie im steigenden Interesse an der neu angekündigten Hardware. Steigende kommerzielle Anwendungsfelder Aus den ursprünglich für Consumer-Märkte entwickelten Technologien haben sich mächtige Tools entwickelt, die sich in B2B-Szenarien nutzen lassen. Mithilfe von Smartphones, Tablets, intelligenten Brillen oder Head-Mounted-Displays halten AR-Techniken beispielsweise im technischen Kundendienst und in der Instandhaltung Einzug (Tab. 5.5). Sie erlauben Technikern vor Ort den einfachen Zugriff auf digitale Informationen, um beispielsweise komplexe Maschinen zu warten. Laut Forrester werden sich VR-Systeme insbesondere im Einzelhandel, der Versicherungsbranche und im Gesundheitssektor weiter ausbreiten (Hermann (2018). Bislang ist die größte Herausforderung bei VR die Brillentechnologie an sich, denn Menschen tragen ungern leistungsfähige Computer direkt auf ihrem Kopf. Technische Durchbrüche können dieses Hindernis zwar lindern, werden es aber vermutlich nicht ganz beseitigen. Die größte Hoffnung der Branche ist wohl, dass zukünftige VR-Inhalte und Brillentechnologie samt Zubehör die Nutzungsfreude und Qualität der VR-Erlebnisse so drastisch steigern, dass sich immer mehr Menschen zu einem Kompromiss bereit zeigen. Ab diesem Zeitpunkt erscheint signifikantes Wachstum möglich, wenn die Branche auf ihr gesammeltes Wissen zurückgreift, das sie über viele Jahre angesammelt hat (Bastian 2018).

Abb. 5.12  Head-Mounted-Displays im Jahr 2019. (Quelle: Microsoft, HTC, Oculus, Sony PlayStation)

5.10  Artificial Intelligence

207

Tab. 5.5  Beispielhafte Branchen und Anwendungsfelder bei Virtual, Augemented und Mixed Reality Branchen • Bildung • Energie- und Umwelttechnik • Handel • Handwerk • Immobilien • Logistik • Luft- und Raumfahrt • Maschinenbau • Medizin • Sicherheits- und Rettungsdienst • Tourismus • Unterhaltungselektronik

Anwendungsgebiete • Arbeitsschutz und -Sicherheit • Design, Modellierung und Simulation • Einblendung von Zusatzinformationen • Interaktive Anleitung und Beratung • Kundenberatung und Test-vor-­Kauf • Lagermanagement • Messen und POS-Unterstützung • Präsentationen und Dokumentationen • Qualitäts- und Prozesskontrolle • Training und Ausbildung • Virtuelle Meetings und Zusammenarbeit • Wartung und Reparatur

5.10 Artificial Intelligence KI ist die am schnellsten an Bedeutung gewinnende Schlüsseltechnologie unserer Zeit. Sie entwickelt sich zur bedeutsamen Einflussgröße für messbaren Geschäftserfolg und zum Effizienz- und Wachstumstreiber für alle Organisationen, die diese gezielt und richtig bei sich einsetzen. Dabei handelt es sich nicht um KI als alleinige Technologie. Vielmehr steht sie als Sammelbegriff für Algorithmen, Methoden oder Simulationsmodelle, die selbstlernend, autonom, kooperativ und intelligent ausgerichtet sind. Als Teilgebiet der Informatik befasst sich KI mit der Schaffung, Nachahmung, Ergänzung und Automatisierung von menschlichem Verhalten. Die Superschlüsseltechnologie ist entweder in physischen Systemen oder in Softwareanwendungen eingebettet und unterstützt Menschen fortlaufend dabei, bessere Entscheidungen zu treffen bzw. menschliche Entscheidungen abzusichern (Abb. 5.13). Das Prinzip dahinter: Die Technologie setzt im ersten Schritt auf das Verstehen von Daten und generiert anschließend über eigenständiges Lernen immer höherwertigere Outputs aus Inputdaten. KI entwickelt sich in Wellen weiter und wird mit jeder neuen Welle intelligenter. Der ehemalige Google-, Micosoft- und Apple-­Manager Dr. Kai-Fu Lee beschreibt den Wandel in vier Wellenbewegungen: Die erste Welle der sog. Internet-KI spielt sich im Internet ab beispielsweise in Form von Empfehlungsmaschinen. Hier verarbeiten Algorithmen die von Nutzern erzeugten Daten. Bei der zweiten Welle spricht Lee von Business-KI. Hier drängt die Technologie in sämtliche Branchen und greift auf die in Unternehmen gesammelten Daten zu. Dabei durchsucht die KI die Datenbanken von Unternehmen nicht nur nach offensichtlichen, sondern auch nach versteckten Zusammenhängen und Mustern. Auch die dritte Welle der sog. Wahrnehmungs-KI ist bereits in unserem Alltag angekommen. Sie digitalisiert unsere Lebenswelt mittels  Sensoren und smarten Geräten. Dabei erkennt sie Wörter in Audiodateien oder Gesichter auf Bildern. Die vierte und letzte Welle

208

5  Das digitale Technologierad der nächsten Generation

Abb. 5.13 Selbstverstärkender Kreislauf zur Entscheidungsqualität im Zusammenspiel von Mensch und Maschine

fasst alle vorangegangenen KI-­Wellen zusammen in der sog. autonomen KI. Mit ihr nehmen Maschinen ihre Umwelt nicht nur wahr, sondern beeinflussen sie auch (Lee 2019). John Launchbury vom US-Verteidigungsministerium DARPA spricht dagegen von drei Wellen bei KI-Technologie: bei der ersten Welle handelte es sich um „handgefertigtes Wissen“, bei dem Muster manuell in Computersystemen erfasst und Zusammenhänge erkannt wurden: die Geburtsstunde von Expertensystemen - viele davon waren regelbasiert. Solche Systeme sind in der Lage, Handlungsempfehlungen aus Wissensbasen ableiten, um komplexere Probleme zu lösen. Die zweite KI-Welle beschreibt das statistische Lernen der künstlich intelligenten Maschinen. Die immer leistungsfähigeren Speicher und Prozessoren ermöglichten ein Einsatz von lernfähigen Statistikmodellen bei großen Datenmengen, die Strukturen in Daten modellieren und darauf basierend Vorhersagen treffen können. Diese Entwicklung öffnete Türen für  Machine Learning und Deep Learning, Die dritte KI-Welle beschreibt die erklärbare KI. Aus „Blackbox-AI“ soll „Whitebox-AI“ werden. Gemeint ist damit, nachvollziehen zu können, wie und warum ein Algo­rithmus einem bestimmten Ergebnissen führt. Bislang sind wir dazu noch nicht in der Lage, KI-­Ergebnisse anhand einzelner Datenpunkt zu  begründen und ein ganzheitliches, kontextuelles Verständnis der verwendeten Daten zu schaffen. Gemäß Launchbury befinden wir uns derzeit mitten in der zweiten KI-Welle, die ebenso wie die Errungenschaften der ersten Welle bereits fester Bestandteil der KI-Strategien vieler Unternehmen ist (Rieger 2019).

5.10  Artificial Intelligence

209

Zeitreise: KI ist fast schon so alt wie ein Menschenleben •  Als Auftakt der Forschung zur Künstlichen Intelligenz gilt die sechswöchige sog. Dartmouth Conference  im Sommer 1956. Drei Jahre später gründete der US-amerikansiche Logiker und Informatiker John McCarty gemeinsam mit dem amerikanischen Forscher Marvin Minsky am MIT das bis heute führende MIT Computer Science and Artificial Intelligence Laboratory. • In den 1980er-Jahren gab es in der Informatik bereits sehr präzise Vorstellungen von neuronalen Netzwerken. Doch damals fehlte es noch an Rechenleistung, um von dem Wissen auch kommerziell profitieren zu können. Trotz einiger vielversprechende Anfänge blieb ein echter Technologie-­ Durchbruch aus. Mitte der 1980er-Jahre zogen sich Geldgeber zurück und stellten ihre Bemühungen aufgrund der mangelnden kommerziellen Nutzbarkeit von damaligen Lösungen ein. • 1994 gewann das Dame-Computerprogramm Chinook den ersten Weltmeistertitel im Kampf gegen menschliche Gegner. Schachweltmeister Kasparov verlor 1996 gegen den IBM-­ Schachcomputer Deep Blue. Während des Spiels gab Kasparov mehrfach an, Zeichen von menschlicher Intelligenz im Computer zu erkennen. Im Jahr 2005 durchbrach der Supercomputer des U.S. Department of Energy, BlueGene/L, die 100 Bio. Rechenoperationen des menschlichen Gehirns pro Sekunde. Seit 2007 ist das Programm so übermächtig stark, dass es nicht mehr gegen Menschen verlieren kann. • Der von IBM entwickelte Nachfolger von Deep Blue – ein Hochleistungscomputer namens Watson – trat 2011 beim US-amerikanischen Fernsehquiz Jeopardy gegen die beiden besten menschlichen Spieler an und gewann. Nicht nur, weil Watson so intelligent war, sondern weil das Computersystem mit 2800 parallel arbeitenden Rechnern über unglaublich große Kapazitäten verfügte und Informationen schneller auswerten und berechnen konnte, als seine menschlichen Gegner. • Chatbot Eugene Goostman überzeugte 2014 ein Drittel seiner Gesprächspartner davon, dass er ein menschlicher Gesprächspartner war. • Im Jahr 2017 bezwang das Google DeepMind-Programm AlphaGo den weltbesten Profi-Spieler Ke Jie im intuitiven, komplexen Brettspiel Go. Der 19-jährige Chinese erklärte danach, er werde nie wieder gegen Computer antreten, denn die KI-Fortschritte lägen jenseits unserer menschlichen Vorstellungskraft. • Das KI-System Libratus zeigte 2017, dass es Menschen auch im Pokerspiel überlegen ist, als es vier Poker-Profis im Rahmen eines Turniers besiegte. Dabei besaß die KI anders als bei Schach oder bei Go bei der Poker-Variante nur unvollständige Informationen über den Spielstand. Bislang galten Spiele dieser Art als zu schwer für Computergegner, da sie stark von Intuition und der Einschätzung der anderen Spieler abhängen. Zu diesem Zeitpunkt hatte die KI allerdings bereits 15 Mio. Prozessorstunden trainiert, bei denen es gegen sich selbst pokerte.

Wie der KI-Supercomputer Watson arbeitet Fällt der Blick auf eines der am weitesten entwickelten KI-Systeme unserer Zeit, IBM Watson, stellt dieses nicht ein fertig entwickeltes Superhirn dar, sondern eher eine Art modularen KI-Werkzeugkasten. Wolfgang Hildesheim, Leiter Watson und KI-Innovation, spricht bei Watson von einer Plattform mit kognitiven Services. Aus dieser stellen sich Anwender ihr individuelles Expertensystem zusammen und trainieren es mit entsprechenden Daten, bevor Watson sinnvolle Antworten liefert. Müsste Watson im Jahr 2019 die Frage beantworten, was den Menschen ausmache und hätte Watson die gesamte philosophische, anthropologische und medizinische Literatur zur Verfügung, wäre das System in der Lage, alle Inhalte von der Urzeit bis heute zu durchforsten, bei denen es um uns Menschen geht  – etwa so wie eine Art erweiterte, schlaue Lesehilfe. Auf die beispielhafte Frage was langfristig der Unterschied zwischen Mensch und Maschine ist, könnte Watson

210

5  Das digitale Technologierad der nächsten Generation

allerdings noch keine befriedigende Antwort geben, da der Mensch bis auf weiteres noch den Kontext festlegen muss. Studienlage zur künstlichen Intelligenz in Organisationen Ein Blick auf die Studienlage zeigt, dass intelligente Softwaresysteme längst im Geschäftsalltag angekommen sind. • Laut einer BCG-Studie von 2017 verfügten 38 % der 3000 befragten Unternehmen über eine KI-Strategie und 23 % setzten Pilotprojekte um. Mit 84 % zeigen sich fast alle Befragten davon überzeugt, dass KI Wettbewerbsvorteile schafft und 75 % erwarteten, dass KI einen besseren Vorstoß in neue Märkte ermöglicht. Eine Ende 2018 veröffentlichte BCG-Studie ergab, dass sich bereits jedes zweite deutsche Unternehmen mit dem Thema KI beschäftigte. • Die Analysten von Accenture zeigten 2017, dass Unternehmen, die KI erfolgreich einsetzen, ihre Rentabilität bis zum Jahr 2035 im Schnitt um 38 % anheben können. Ein Jahr später prognostizierte Accenture, dass Unternehmen auch ihre Erlöse durch KI bis 2022 um rund 38 % steigern können. Darüber hinaus waren mit 45 % fast die Hälfte der befragten Unternehmenslenker davon überzeugt, dass zukünftig jegliche Innovation auf KI basieren wird. • In ihrer KI-Studie von 2019 fanden die Kollegen von PwC gemeinsam mit dem Marktforschungsinstitut EMNID heraus, dass sich noch viele Unternehmen damit schwertan, Risiken, die mit der oft noch unerprobten KI verbunden sind, zu bewerten: 4 % der Unternehmen setzen KI bereits produktiv ein und weitere 2 % waren dabei,  KI-­ Systeme zu implementieren. 3 % der Unternehmen testeten KI-Lösungen , 14 % befanden sich in der Planungsphase und 28 % stuften das Thema KI als relevant ein, ohne allerdings diesbezüglich Maßnahmen eingeleitet zu haben. Als wahrscheinlichste KI-Einsatzfelder benannten die befragten Unternehmen die Datenanalyse für Entscheidungsprozesse (70 %), die Automatisierung von Geschäftsprozessen (63 %), Chatbots (47 %) und neue digitale Geschäftsmodelle (44 %). • Der Markt intelligenter Systeme wächst rasant. IDC prognostizierte 2018 weltweite KI-Investitionen in Höhe von 19,1 Mrd. $. Das entsprach einer Steigerung von 54 % zum Vorjahr. Für 2019 ging das Marktforschungsunternehmen davon aus, dass 40 % der digitalen Transformationsinitiativen und 2021 rund 75 % der Unternehmensanwendungen auf KI setzen werden.

Bestandteile von KI-Systemen KI zeigt sich in der maschinellen Fähigkeit, typische Herausforderungen, die menschliche Intelligenz voraussetzen, selbstständig umzusetzen. Mit ihren unsichtbaren Algorithmen imitieren und automatisieren die datenverarbeitenden Systeme unser menschliches Verhalten und greifen dabei auf Logik, Wenn-dann-Funktionen, Entscheidungsbäume, Machine Learning und Deep Learning zu. Wenn von KI-Systemen die Rede ist, stehen neun funktionale Bereiche im Fokus.

5.10  Artificial Intelligence

211

( 1) Maschinelle Wahrnehmung von Objekten, Tönen oder Berührungen (2) Verarbeitung natürlicher Sprache (3) Logisches Schlussfolgern (4) Maschinelles Planen und Lösen von Problemen (5) Maschinelle Bewegung und Handhabung (Robotik) (6) Emotionserkennung und soziale Intelligenz (7) Expertensysteme (8) Machine Learning (9) Deep Learning Während Machine-Learning-Algorithmen KI trainieren, sind Deep-Learning-­Algorithmen darauf aus, das menschliche Gedächtnis nachzuahmen. Mit anderen Worten: Deep Learning versucht, die menschliche Intelligenz über Simulationen zu erreichen und irgendwann zu übertreffen. Maschine Learning als schwach entwickelte künstliche Intelligenz Eine schwach entwickelte KI bezeichnet Systeme, die sich intelligent verhalten, indem sie kognitive, menschliche Entscheidungsregeln mit neuen Informationen selbstständig anpassen. Dabei handelt es sich zum Beispiel um logische Argumentation zur Problemlösung oder logische Entscheidungsfindung und damit Funktionen aus dem Feld der Machine-Learning-Technologie. Hierbei lernt das System selbstständig und entwickelt sein Verhalten basierend auf den Ergebnissen von absolvierten Trainingsschritten weiter: Es lernt aus eigenen Erfahrungen. Technisch gesehen handelt es sich dabei um einen oder mehrere Algorithmen, die schwache KI schrittweise verbessern, indem sie innerhalb ihres Aktivitätsspektrums lernen – ohne dass diese Aktivitäten zuvor programmiert worden wären. Damit bezeichnet maschinelles Lernen ein System, das es sich zur Gewohnheit macht, bestimmte Aufgaben zu korrigieren oder anzupassen und dabei die eigenen Fähigkeiten verbessert. Maschinelle Lernen unterscheidet sich abhängig davon, welches Lernmodell zum Einsatz kommt: • Beim Lernmodell Didactic Supervision verwendet der Algorithmus sowohl Input- als auch Output-Datenbeispiele, um ein entsprechendes Verhalten daraus abzuleiten. Ohne Didactic Supervision findet der Algorithmus eigene Modelle ohne spezifischen Dateninput oder -output, indem er Ergebnisse „einfach“ zusammenführt („mapping“). • Beim Lernmodell Transfer Learning lernt das System eine bestimmte Sache und nutzt das gewonnene Wissen, um neue Dinge auszuprobieren. Dabei überträgt es die Ergebnisse einer fertig trainierten Einheit auf neue Aufgaben. • Beim Lernmodell Reinforcement Learning lernt das System über Belohnungen, wenn es richtige Ergebnisse erzielt. Dabei bestehen die Belohnungen – wie könnte es anders sein – aus Code. Jede Entscheidung, die sich als richtig erweist, gibt ein positives Feedback an das System, das darauf programmiert ist, Belohnungen zu maximieren. So verbessern sich die Fähigkeiten mit zunehmenden Belohnungen. Reinforcement Learning wird auch als Lernverfahren im Bereich künstlich neuronaler Netze eingesetzt. Deep Learning als stark entwickelte künstliche Intelligenz Hochentwickelte KI steht für „weise Systeme“ mit einem autonomen Sinn für Argumentationen und Denkstrukturen und damit für Funktionen, die Maschinen unabhängig von uns Menschen selbst verstehen, steuern oder entwickeln. Diese Systeme bestehen aus künstlichen neuronalen Netzwerkstrukturen und damit aus einer Vielzahl von künstlichen Neuronen. Sie sind meistens in mehreren miteinander verbundenen Schichten – sog. Layern – angeordnet. Die Anzahl der Layer bestimmt den Grad der Komplexität, den ein künstliches neuronales Netz abbildet. Sind es viele Layer, machen sie ein neuronales Netz tief. Die Deep Learning Technologie bzw. das Deep Neural Network (DNN) ist die am weitest entwickelte Unterklasse im Machine-Learning-Kontext. Sie verkörpert nach Professor Stefan Wrobel „eine ursprünglich biologisch inspirierte Methode des maschinellen Lernens und die Kunst, die Wirklichkeit mathematisch in immer feinere Schichten zu filetieren sowie die Welt, ähnlich wie unser menschliches Gehirn, bei der Verarbeitung von Sinneseindrücken wahrzuneh-

212

5  Das digitale Technologierad der nächsten Generation

men“. Um die Funktionsweise unseres menschlichen Gehirns zu simulieren, benötigt Deep Learning künstliche neuronale Netzwerkstrukturen, Algorithmen, hinreichende Rechenleistung und eine Vielzahl an Daten.

Wie künstliche Intelligenz so gut wie in allen Unternehmensfunktionen Vorteile schafft Ob im Vertrieb, Marketing, Kundendienst oder Controlling, im Personal- oder ­Rechtswesen, in der Beschaffung oder Logistik, in der Produktion oder Verwaltung, im Backoffice, in der IT- oder Innovationsabteilung oder auf der Chefetage – KI-Technologie lässt sich unternehmensweit einsetzen. Ähnlich wie KI in allen Zukunftstechnologien Einzug hält, verändert sie auch Unternehmen – und zwar über die gesamte Wertschöpfungskette hinweg. KI verbessert die Ergebnisse in den Fachabteilungen und beschleunigt die Geschäftsprozesse. Sie ermöglicht Kosteneinsparungen beim Betriebsmodell, indem sie Routineaufgaben ersetzt und Ressourcenverschwendung aufdeckt. Zudem schafft KI neue Geschäftschancen: sie öffnet die Tür für eine ganz neue Ära bei Innovationen mit Produkten, die noch besser und gezielter auf Kundenwünsche und individuelle  Kundenanforderungen eingehen. Denn KI hat das Potenzial zum echten Kundenversteher zu werden. Momentan sind die größten Nutznießer von KI im Unternehmen noch die Bereiche IT, Marketing, Vertrieb, Produktion und Verwaltung sowie das Controlling. Hier befinden sich häufig die wertvollsten Anwendungsfälle. Auch wenn es in Unternehmen heutzutage vielerorts an Klarheit bezüglich der Einsatzmöglichkeiten fehlt, wird der Einfluss von KI auf die Unternehmensstrategie bis 2025 von Jahr zu Jahr steigen, sodass sich KI schrittweise zu einem festen Teil zukünftiger Unternehmens-DNA entwickeln wird. Dabei hat KI das Potenzial, die Unternehmens-DNA weitreichend und irreversibel zu verändern. Wie Unternehmen künstliche Intelligenz in der Praxis implementieren Bei KI-affinen Unternehmen sind es meist die oberen beiden Führungsebenen inklusive des Top-Managements, die Exploration und Implementierung von KI begrüßen und mit Dienstleistern vorantreiben. Im ersten Schritt stehen Wissensbeschaffung und Potenzialanalysen im Fokus, bei denen die wertvollsten Anwendungsfälle identifiziert und potenzielle Optimierungsbereiche innerhalb bestimmter Unternehmensfunktionen ausgelotet werden (Abb.  5.14). Es folgt Schritt  2: Entwicklung und Inbetriebnahme einer ersten KI-Pilotlösung, um potenzielle Wertzuwächse in der Praxis zu messen und zahlenbasiert zu untermauern. Beim dritten Schritt („Scale Up“) gelangt KI in die Breite des Unternehmens mit einer  dauerhaften Implementierung von mehreren KI-Technologien in ganz unterschiedlichen Funktionen innerhalb des Betriebsmodells. Die Voraussetzungen für den erfolgreichen Einsatz von KI im Unternehmen liegen einerseits in der Verfügbarkeit von Daten und andererseits in einer guten Datenbasis, um die Algorithmen richtig zu trainieren, zu testen und weiterzuentwickeln. Um vom Technologieeinsatz wirtschaftlich zu profitieren, benötigen KI- und Datenverantwortliche nicht nur

5.10  Artificial Intelligence

213

Abb. 5.14  Beispielhafte Anwendungsfelder für künstliche Intelligenz. (Quelle: Fraunhofer IAIS)

möglichst viele Daten, sondern v. a. auch die richtigen – also diejenigen Daten, die zu einem zu lösenden Problem gehören. KI-Potenziale liegen v. a. in Unternehmensbereichen, die über sehr große Datenmengen verfügen, aber noch keinen Zugang zu leistungsfähiger Analytics-Software haben. In diesen Bereichen kann KI die menschliche Entscheidungsfindung erweitern und verbessern. Liegen viele  Unternehmensdaten in unstrukturierter Form vor, nimmt meist die Aufbereitung, Integration, Überprüfung und Korrektur der Daten einen Großteil der Zeit bei initialen KI-Projekten ein. Darüber hinaus benötigen Unternehmen erfahrene Analysten oder KI- Experten, die kreativ und mit reichem Erfahrungswissen ausgestattet, über sinnvolle Einsatzfelder für künstlich intelligente Systemen befinden, hinter denen eine Hebelwirkung vermutet wird. Grundsätzlich können Unternehmen KI-Systeme selbst entwickeln oder alternativ externe, marktgängige KI-Lösungen einsetzen. lErfolgreiche KI-Implementierung mit KI-Kompetenzträgern Bei KI treten ganz neue Berufsbilder in Erscheinung: Data Scientist, Data Engineer, Data Analyst, Data Strategist, AI Developer, AI Engineers oder AI Expert. Die Spezialisten helfen beispielsweise bei der Analyse der Ausgangssituation, der Entwicklung der KI-Stra-

214

5  Das digitale Technologierad der nächsten Generation

tegie und der Formulierung von realistischen KI-Zielen, bei der Planung und Entwicklung von KI-Piloten, bei der Auswahl passender algorithmischer Methoden und Systeme, dem Kuratieren von Daten, der Auswahl und Extraktion von Merkmalen oder dem Training von Daten. Da solche Spezialistenstellen i. d. R. nicht vor der erstmaligen Implementierung einer KI-Lösung unternehmensintern verfügbar sind, erfolgt die initiale Umsetzung von KI-­Projekten meist im Zusammenspiel mit externen Know-how-Trägern, dem Top-­ Management und internen Fachereichen. Können die gewünschten kommerziellen Unternehmensvorteile wie Steigerung des Unternehmenswerts, Erlössteigerung oder Ergebnissteigerung nach den ersten erfolgreichen KI-Piloten nachgewiesen werden, fällt es der Chefetage leichter, neue interne Stellen im Unternehmen zu schaffen, um einen flächendeckenden KI-Einsatz in unterschiedlichen Unternehmensfunktionen zu be­ schleunigen. Die Qual der Wahl: As-a-Service, Komplettsystem, Teilsystem, Open-Source oder Individualprogrammierung? Neben der Möglichkeit, KI selbst zu entwickeln, greifen eine Reihe von  Unternehmen auch auf externverfügbare Technologielösungen zu – entweder auf Cloud-basierte KI-as-­ a-Service, KI-Bibliotheken, KI-Komplettsysteme, vortrainierte KI-Services oder auf Teile bestimmter Unternehmenssoftware mit bereits integrierter KI. Alternativ können Unternehmen  auf Open-Source-Entwicklungstools oder eine AI Ready Infrastructure (AIRI) setzen. Wenngleich eine 2018 veröffentlichte Studien von den Kollegen von Deloitte zeigte, dass ein größerer Teil der Unternehmen KI-as-a-Service-Modelle präferierte, ist momentan noch kein belastbarer Königsweg beim Einsatz von KI-Systemen erkennbar – zu jung ist die Disziplin, was die kommerzielle Reife von Lösungen und Marktverbreitung betrifft und zu heterogen die Angebots- und Variantenvielfalt.

Künstliche-Intelligenz-Strategieimpulse für das Top-Management

• KI-Strategie und Führung: Um mit der Technologie Geschäftsvorteile zu generieren, ist eine Top-Management-Beteiligung unerlässlich. Damit die Management-­Etage die wesentlichen Vorteile durch Einsatz künstlich intelligenter Systeme verstehen kann,  werden die durch KI erzielbare Schlüsselergebnisse greifbar und messbar dargestellt und daraus eine KI-Roadmap abgeleitet, die sich auf die wertvollsten Anwendungsfälle konzentriert. • Aus HR wird HAIR: Die Rolle des Chief HR Officer ändert sich. Sie wird nicht mehr allein durch das Management von menschlichen Beschäftigten bestimmt, sondern bezieht auch Mensch-Maschinen-Interaktionen und Maschinen als Leistungsträger ein: Die Geburtsstunde für Human Artificial Intelligence Resources.

5.10  Artificial Intelligence

215

• Organisatorisches Lernen mit KI: Um die Organisation auf die sich verändernde Natur des organisatorischen Lernens anzupassen, werden KI-Systeme zur Entwicklung neuer Fähigkeiten eingesetzt, mit dem Ziel, ein insgesamt höheres organisatorisches Kompetenzniveau zu erreichen. • Entwicklung einer offenen KI-Kultur: Offenheit, Transparenz, interne Kommunikation, Technologienutzen verständnis und Technikfolgenabschätzung werden zu Schlüsselindikatoren für das Führungsteam, um eine neue Beziehung zwischen Mitarbeitern und intelligenten Maschinen zu entwickeln. Führungskräfte weben dafür neue Rahmenbedingungen und Werte in die bestehende Unternehmenskultur ein, die Chancen einer produktiven Zusammenarbeit zwischen Menschen und Cobots hervorheben, Technologieakzeptanz durch klare Benennung der Gründe für den alternativlosen Maschineneinsatz schaffen (wie zum Beispiel  Kundenvorteile, Wettbewerbsvorteile  oder Sicherung des Unternehmensfortbestands) und legen damit den Grundstein  für Synergien bei der Mensch-­ Maschine-­Kollaboration. • Der Schritt nach der Prozessautomatisierung: Pure AI-Player gehen  einen Schritt weiter: Eine zunehmend selbstlernende, sich selbst steuernde und sich selbstständig verbessernde  künstlich intelligente Hard- und Software steht im Zentrum der vollautomatisierten KI-getriebenen  Wertschöpfungskette und Geschäftsmodelllogik von intelligenten Organisationen, bei denen Menschen kaum noch aktiv zur operativen Wertschöpfung beitragen. • Mensch-Maschine-Innovation: Die nächste Evolutionsstufe des Innovationsmanagements reichert die von Menschen generierten Geschäftsideen und Meinungen mit KI-Fähigkeiten an, um neue, disruptive Geschäftschancen zu schaffen. Die verbilligte Musterkennung verändert tradierte Geschäftsmodelle und macht intelligente Prognosemaschinen mit den richtigen Daten richtig wertvoll. Noch liefert KI Vorhersagen als Information aus und kluge und kreative Köpfe müssen anschließend beurteilen, was daraus zu schlussfolgern ist. Wie lange diese Trennung noch aufrechterhalten bleibt, erscheint nur eine Frage der Zeit. • Schaffen von Voraussetzungen: Um datenbasierte Wertschöpfung aus der Anwendung von KI-Software zu generieren und neue KI-Technologien in der Breite des Unternehmens einzusetzen, brauchen Unternehmen ein hohes Niveau an IT-Sicherheit, um Manipulation und Missbrauch weitgehend zu reduzieren, neue Kompetenzträger, um die mit KI-Technologien verbundenen Marktpotenziale zu heben sowie ethische und rechtliche Grundsätze  für einen flächendeckenden KI-Einsatz.

216

5  Das digitale Technologierad der nächsten Generation

• Messung von Return on Algorithm  (ROA) : Im Gegensatz zu traditionellen Vermögenswerten, die im Zeitverlauf an Wert verlieren, gewinnen neue KI-­ Assets wie Daten, Bibliotheken und Algorithmen an Wert. So benötigen Finanzvorstände neue Metriken, um den Return on Algorithm (ROA) zu quantifizieren – auf Basis von Wertzuwächsen durch eingesetzte Algorithmen abzüglich Initialaufwänden und laufenden Betriebs- und Softwarelizenzkosten. Erfolge von künstlicher Intelligenz in der Medizin

In der Medizin steht die Menschheit durch die Einbettung von KI und Big Data vor der größten Revolution seit der Entdeckung des Penicillins Ende der 1920er-Jahre. Mithilfe von Mustererkennung greift KI auf einen größeren Erfahrungsschatz zu, als sich ein Mensch jemals aneignen könnte, da sie Hundertausende oder Millionen von Daten in kürzester Zeit evaluieren kann. So gilt es inzwischen als relativ unstrittig, dass KI bald Bilder von Magnetresonanz- und Computertomographen im großen Stil deutlich besser befunden wird, als erfahrene Radiologen es könnten. Der KI-Algorithmus der Google-Schwester Verily konnte 2018 laut einer Studie von Nature Herzerkrankungen durch Augendiagnose vorhersagen, noch bevor Krankheitssymptome auftraten. Auf der Grundlage von 300.000  Patientendaten trainierten die Wissenschaftler ihren Algorithmus. Über Augenhintergrund-Scans, die auf den körperlichen Gesamtzustand von Menschen schließen ließen, analysierte der Deep-Learning-Algorithmus die Aufnahmen und bestimmte daraus das Risiko einer möglichen Herzerkrankung, wie beispielsweise eines Herzinfarkts. Anwendungsbeispiele für künstliche Intelligenz Im Jahr 2017 gelang es Google in ihrer Google-Brain-Abteilung bei Experimenten, dass ihre KI-Software wiederum selbst eine eigene KI-Software entwickelte: Code wurde von Code geschaffen. Im Jahr 2018 entwickelte Google mit KI ein neues Verschlüsselungsverfahren, das bislang weder von Menschen verstanden wurde, noch bei bisherigen Angriffen zu überwinden war. Die weltweiten und branchenübergreifenden  Anwendungsfälle für KI-Einsätze steigen. Aus Anfang 2020 mehreren Hundert KI-Einsatzmöglichkeiten werden zukünftig Tausende entstehen. Dabei variieren die Reifegrade der KI-Technologien – von gerade erst im Experimentierstadium begriffen bis hin zu sehr weit fortgeschrittenen marktfähigen Ausprägungen. Um gute Investitionsentscheidungen bezüglich KI-­ Technologieeinsätzen zu treffen, brauchen Unternehmen neben einer hinreichenden Eindringtiefe in das Thema an sich ein gutes Fingerspitzengefühl dafür,  welche KI-­ Technologien in welchen Einsatzfeldern  bereits  zu messbaren Geschäftsnutzen führt oder welche weiter beobachtet werden sollten, weil sie möglicherweise erst in naher Zukunft kommerziell ausgereift sein werden. Die Tab. 5.6. zeigt einige exemplarische KI-­ Anwendungsbeispiele über verschiedene Branchen hinweg.

5.10  Artificial Intelligence

217

Quellen (v.l.n.r.): ibm.com / wikipedia.org / jeopardy.com / Pixabay ID: 2181709 / scienceabc.com / wikipedia.org / Pixabay ID: 3325010 / deepmind.com

218

5  Das digitale Technologierad der nächsten Generation

Tab. 5.6  Beispielhafte Einsatzfelder für künstliche Intelligenz Bereich 1 Marketing und Kundenservice

2

3

4

5

6

Anwendungsbeispiele für künstliche Intelligenz • Vorhersage von Kundenabwanderungen • Echtzeitzielgruppensegmentierung; Erschließung neuer Zielgruppen • Personalisierte Kundenansprache und „unique recommendations“ • Optimierung Budgetallokation bei Aussteuerung von Kampagnen • Vorhersagen von Kunden verhalten • Auswertung von Kundenfeedback und Rezensionen • Erkennung von versteckten Unmutsäußerungen oder Angebotswünschen • Chatbots im Kundenservice und Abarbeitung von Support-­Anfragen Medizin • Maschinengestützte Analyse von Patientendaten und Risikofaktoren • Diagnose von Krankheiten, schnellere und bessere Befunde • Früherkennung von Krankheiten via Monitoring und Wearables • Beschleunigung der Medikamentenentwicklung • Individualisierung von Therapien und Medikamenten Industrielle • Smart-Factory-Umgebungen und selbststeuernde Fabrik Produktion • Intelligente Industrierobotik und Montageassistenten • Produktionsanlagensteuerung und -überwachung • Supply-Chain-Optimierung und automatische Prozesskorrektur • Vorausschauende und autonome Instandhaltung • On-demand-Produktion Autonome • Lernende Fahrerassistenzsysteme Transportsysteme • Autonome Fahrzeuge, Fluggeräte und Fahrräder • Intelligente Zustellfahrzeuge und Zustelldrohnen • Fahrerzustandserkennung • Intelligente Verkehrssteuerung • Fußgängerverhaltensanalyse Energie • Effizientere Energiespeicherung • Prognosen zur optimierten Netzsteuerung • Energieverbrauchsanalyse • Energiekostenkontrolle und -optimierung • Intelligente Optimierung der Energiewende • Automatisiertes Erkennen von Energiediebstahl Financial Services • Intelligente Vermögensverwaltung und Finanzplanung • Intelligente Buchhaltung • Analyse von Kreditentscheidungen, Investitionen und Risiken • Betrugserkennung • Geldwäschebekämpfung

Genauigkeit und Richtigkeit von KI- Ergebnissen Neben Forschungen zum Thema erklärbare KI, die der Frage nachgehen, ob es sich tatsächlich um intelligente Entscheidungen handelt oder um statistisch erfolgreiche Verfahren (Stichwort: Clever-Hans-Strategien), wird die Richtigkeit und Güte von KI-­Ergebnissen eines der zentralen Themen der nächsten Jahre sein. Je zuverlässiger und genauer Algorithmen Daten auswerten können sollen, desto höher fallen i. d. R. auch die Entwicklungsaufwände und Technologiekosten aus. Aus diesem Grund werden die Themen Robustheit und Mindestqualität von KI-Prognosen eine Rolle spielen. Mit anderen Worten: Was ­kostet jedes weitere Prozent Genauigkeit und welcher Zusatznutzen entsteht Unternehmen dadurch?

5.11  Advanced Robotics

219

5.11 Advanced Robotics Sie können auf einem Bein springen und sich dabei in der Luft drehen, einen Salto rückwärts springen, anspruchvolle Gymnstikübungen durchführen, auf einem normalen Fahrrad über ein Geländer fahren, das so breit ist wie die Reifen selbst, Geige oder Heavy-­ Metal-­Konzerte spielen oder mit fünf Bällen gleichzeitig jonglieren. Die Entwicklungen in der Robotik sind beeindruckend. Bereits 2012 konnte es der vierbeinige Roboter Cheetah von Boston Dynamics mit dem schnellsten Menschen der Welt Usain Bolt aufnehmen, als dieser einen Geschwindigkeitsrekord von 45 Kilometer pro Stunde aufstellte.

Der erste mobile Roboter Shakey Die erste elektronische Person entstand 1966 im Labor für Künstliche Intelligenz in Stanford. Damals war der zitternde Shakey der weltweit erste mobile Roboter, der seine eigenen Aufgaben planen konnte und damit bereits eine Art KI besaß (Abb. 5.15). Um dies zu ermöglichen, kombinierten die Wissenschaftler Robotik, Sensorik, Bildverarbeitung und Natural Language Processing, also die maschinelle Verarbeitung von natürlicher Sprache. Shakey verfügte über ein für diese Zeit erstaunliches Set möglicher Aktionen: Beginnend mit der selbstständigen Fortbewegung von einem Ort zu anderen, dem Ein- und Ausschalten von Lichtschaltern, dem Öffnen und Schließen von Türen, dem Auf- und Absteigen bei starren Objekten bis hin zum Hin- und Herschieben von beweglichen Objekten. Nach manueller Eingabe von „push the block off the platform“ an der zum Roboter zugehörigen Computerkonsole, sah sich der Roboter zunächst um und identifizierte eine Plattform mit einem darauf liegenden Block. Anschließend suchte er eigenständig nach einer Auffahrrampe, die er an die Plattform schob, um über die Rampe auf die Plattform zu rollen und abschließend den Block von der Plattform zu schieben. Wie moderne Robotersysteme funktionieren Zu Robotern gibt es in der Literatur unterschiedliche Beschreibungen – von technischen Maschinen, die Menschen häufig wiederkehrende mechanische Arbeiten abnehmen bis zu computergesteuerten, sensorgeführten mobilen Bewegungsautomaten, die Handhabungsoder Fertigungsaufgaben übernehmen. Fortgeschrittene Robotik setzt heutzutage auf das Zusammenspiel von Disziplinen der Neuroinformatik, KI, Mechatronik, Bionik, Sensorik oder Computer Vision als maschinelles Sehen in Kombination mit fortschrittlichen ­Materialien. Um von Menschen besser akzeptiert zu werden, lernen Roboter ganz normal mit ihren Partnern aus Fleisch und Blut umzugehen. Dazu werden sie darauf trainiert, in menschlichen Gesichtern zu lesen und Körpersprache richtig zu deuten. Moderne Roboter sind in der Lage, Hunderte verschiedene Gesichtsausdrücke, Stimmen und Mimik ihres

220

5  Das digitale Technologierad der nächsten Generation

Abb. 5.15  Roboter Shakey am MIT (Wikipedia)

Gegenübers zu erkennen. Sie analysieren komplexe menschliche Emotionen und Gemütszustände, um angemessen darauf zu reagieren. Dabei unterscheiden sie höfliches, falsches, zynisches von einem gütigen oder zufriedenen Lächeln über den Vergleich von Augenund Mundpartien. Die Ära des lange Jahre weltweit führenden Roboters ASIMO Lange vor dem heutigen Technologieführer Boston Dynamics war ASIMO das fortschrittlichste menschenähnliche Robotersystem. Das Projekt Advanced Step in Innovative Mobility (ASIMO) startete Honda 1986. In der Anfangszeit konnte der Roboter nur auf zwei Beinen gehen. 2000 erhielt er einen vollständigen Körper und nahm zunehmend menschliche Gestalt an. ASIMO verfügte über drei verschiedenen Sensorarten: visuelle Sensoren, Bodensensoren und Ultraschallsensoren. Seine Motoren ermöglichten eine Bewegung innerhalb von 34  Freiheitsgraden. Mithilfe der Intelligence-Walk-Technologie konnte ASIMO seine nächsten Bewegungen planen und die Richtung ändern, ohne dafür anzuhalten. Wenn ASIMO um die Ecke ging, legte er sich ähnlich wie ein Mensch in die Kurve, verlagerte seinen Körperschwerpunkt und blieb so im Bewegungsfluss.

5.11  Advanced Robotics

221

Im Jahr 2008 ließ sich ASIMO zusätzlich über Hirnsignale steuern, indem er Spannungsschwankungen an der Kopfoberfläche via Helm registrierte. Ab 2011 konnte der Roboter, mit höherer Intelligenz ausgestattet, ohne Schwierigkeiten Getränke servieren, indem er mit seinen multifunktionalen Händen Schraubverschlüsse sicher aufschraubte und Gläser befüllte. Darüber hinaus konnte er entgegenkommenden Personen ausweichen, indem er alternative Routen wählte. Im Jahr 2014 spielte ASIMO Fußball mit dem US-­ Präsidenten Barack Obama; 2015 tanzte er mit Bundeskanzlerin Angela Merkel. Der Roboter entwickelt sich immer mehr von einer automatischen Maschine zu einer autonomen Maschine, um dem Ideal eines humanoiden Roboters näherzukommen. Obwohl Honda lange Zeit damit rechnete, den alltagstauglichen Begleiter ab dem Jahr 2020 einem breiteren Markt zugänglich machen zu können, stellte der japanische Automobilhersteller seine 130 cm großen und 48 kg schwere Roboterlegende nach der siebten Robotergeneration 2018 ein. Durch den Top-down-Ansatz der Asimo-Software, benötigte ASIMO für seine zu erledigenden Aufgaben von Menschen vorgegebene Informationen. Lernfähig war ASIMO damit nicht. Modernere Robotergenerationen funktionieren nach dem Button-­up-­ Prinzip, das es den Robotern ermöglicht, fortlaufend zu lernen, ohne auf menschliche Entwickler angewiesen zu sein. Als weiterer möglicher Grund für das Ende von ASIMO galt die starke Konkurrenz durch den zeichenzeitlich deutlich fortgeschrittenen Roboterkollegen Atlas von Boston Dynamics. Altlas – der fortschrittlichste humanoide Roboter unserer Zeit Die Roboter des 1992 am MIT gegründeten Robotikunternehmens Boston Dynamics gehören zu den am weitest fortgeschrittenen Robotern der Welt. Als autonome Laufroboter zeichnen sie sich durch ihre besondere Agilität und Eleganz bei Bewegungen aus. Im Jahr 2013 von Google übernommen, verkaufte Googles Konzernmutter Alphabet die Robotikfirma 2017 an das japanische Telekommunikations- und Technologieunternehmen Softbank. Allen voran läuft der humanoide Roboter Atlas, dessen Steuerungssystem die Bewegungen von Armen, Beinen und Körper koordiniert. Durch seine Ganzkörpermobilität mit 28 hydraulischen Gelenken, kann der 75 Kilogramm schwere und 1,50 Meter große Elektroroboter Atlas in einem großen Umfeld tätig sein, ohne dabei selbst viel Platz zu beanspruchen. Seine Hardware setzt auf 3D-Druck, um Gewicht und Platz zu sparen und macht Atlas zu einem bemerkenswert kompakten Roboter mit hohem Kraft-Gewicht-Verhältnis (Abb. 5.16). Computersehen, exakte Entfernungsmessung und zahlreiche Sensoren geben Atlas die Möglichkeit, Objekte in seiner Umgebung sicher zu erkennen und sich auf unwegsamem Gelände zu bewegen. Der Roboter behält sein Gleichgewicht, wenn er geschubst wird. Und kann selbstständig aufstehen, wenn er umkippt. Ende 2018 präsentierte Boston ­Dynamics seinen Roboter Atlas mit besonders eleganten und dynamischen Fortbewegungsarten (Pluta 2018). Dabei lief er federnd an, springt über einen Baumstamm und sprang anschließend in einer einzigen fließenden Bewegung drei etwa 40 Zentimeter hohe Stufen hinauf, die seitlich versetzt warten. Dies war möglich, da Atlas sich mit seinen Füßen nicht nur aufwärts, sondern auch seitwärts abstieß. Bereits ein Jahr zuvor beherrschte der zweibeinige Roboter das Springen über Kisten, vollführte eine halbe Körperdrehung im Sprung und sprang anschließend einen Rückwärtssalto aus dem Stand. Ende

222

5  Das digitale Technologierad der nächsten Generation

Abb. 5.16 Humanoider Roboter Atlas (Boston Dynamics 2018)

2019 kamen weitere Fähigkeiten dazu: Ob Handstand, Körperrolle oder eine 360-Grad-Drehung in der Luft – alle Bewegungen absolvierte Atlas in beeindruckender Flüssigkeit und Perfektion. Industrieroboter und Serviceroboter im Aufwind Die Einsatzgebiete von Robotern wie Atlas, Spot, SandFlea, RHex, Pick oder Handle von Boston Dynamics, Valkyrie von NASA oder T-HR3 von Toyota sind vielfältig. Industrieroboter erledigen einige monotone Fließband- oder Logistikarbeit mittlerweile schneller und genauer als ihre menschlichen Kollegen. Im Zuge der Automatisierung setzen Unternehmen Roboter unterschiedlich ein – beispielsweise in für Menschen gefährlichen oder unzumutbaren Produktionsumgebungen. Von allen Branchen hat die Automobilindustrie seit Jahren die höchste Roboterdichte. Auch die sehr kleinen Mikroprozessoren in Computern wären heutzutage ohne Roboterbeteiligung nicht mehr produzierbar. Weitere Einsatzfelder für Roboter finden sich im Maschinenbau, in der Elektrotechnik, Chemie, Luftund Raumfahrt sowie in der Lebensmittelverpackung.

5.11  Advanced Robotics

223

Neben Industrierobotik spielt auch die Servicerobotik eine tragende Rolle. In Abgrenzung zu Industrierobotern für meist handwerkliche oder Handhabungsaufgaben, erbringen Service-, Pflege und Haushaltsroboter Dienstleistungen für und am Menschen – vorausgesetzt, sie sind in der Lage, sich in der menschlichen Umgebung zurechtzufinden. Beispiele hierfür sind der Roboter Walker oder Cruzr – ein Cloud-basierter, intelligenter humanoider Serviceroboter. Die beiden von UBTECH entwickelten Systeme wurden auf der CES 2019 in Las Vegas vorgestellt. Dort zeigte auch Samsung seine KI-basierte Roboterplattform mit Samsung Bot Care, Samsung Bot Air, Samsung Bot Retail und Samsung Gems, die sich zukünftig um die Gesundheit, das Raumklima oder weitere Aktivitäten des täglichen Lebens kümmern sollen. Und auch Amazon arbeitet in seinem Lab126 an der Entwicklung eines Roboters  – seit 2018 testet es seinen Haushaltsroboter Vesta bei seinen Mitarbeitern. Positive Marktentwicklung in der Industrierobotik Laut dem VDMA Fachverband ist der Branchenumsatz der deutschen Robotik, integrierten automatisierten Montagelösungen und industriellen Bildverarbeitung im Jahr 2018 um 4 % gestiegen. Er erreichte erstmals die Marke von 15 Mrd. €. Die International Federation of Robotics IFR prognostizierte 2018, dass sich bis 2020 weltweit rund 3 Mio. Industrieroboter in den Fabriken im Einsatz befinden werden. Im Jahr 2019 zählte Statista rund 2,1 Mio. Industrieroboter weltweit, die zur Handhabung, Montage oder Bearbeitung von Werkstücken eingesetzt wurden und ging von einer Steigerung auf 3,8 Mio. Robotern bis 2021 aus (Abb. 5.17).

Abb. 5.17  Geschätzter Bestand von Industrierobotern weltweit (Quelle: Statista 2019)

224

5  Das digitale Technologierad der nächsten Generation

Aktuelle Herausforderungen der Robotik Roboter können intelligente Dinge in bekannten Räumen tun. Aber noch scheitern die Systeme, wenn sie sich zu schnell bewegen oder die Umweltbedingungen nicht perfekt sind. Immer noch ist der erfolgreich zurückgelegte Weg von A nach B für autonome, mobile Roboter eine der größten Herausforderungen. Während einfache Staubsaugerroboter bereits gut funktionieren, brauchen Roboter mit größeren Zielen mehr Fähigkeiten und eine hohe Zuverlässigkeit. Selbst 99 % Zuverlässigkeit reichen nicht aus, wenn es sich um Roboter handelt, die einem Menschen prinzipiell schaden könnten. Aus diesem Grund wird gerade in öffentlichen Räumen oder Wohnungen eine nahezu 99,99 %ige Zuverlässigkeit benötigt. Um diese zu erreichen, laufen Roboter zunächst viele tausende Stunden im Testbetrieb, werden mithilfe von digitalen Software-Zwillingen kontinuierlich ­optimiert, bis sie irgendwann zur Durchführung der vorgesehenen Aufgaben zugelassen werden. Intelligente, autonome Roboter von morgen In den 1970er-Jahren wurden die ersten Roboter in der Automobilfertigung eingeführt, um mechanische Leistungen zu automatisieren. Zukünftig werden sich dank Neurorobotik – einer Kombination aus Robotik, KI und Neurowissenschaften – auch kognitive Leistungen automatisieren lassen. Durch die Virtualisierung von Hirnforschung entstehen ganz neue fortschrittliche  Robotersysteme. Angetrieben von den großen Fortschritten der letzten Jahre, prognostizierte der ehemalige MIT-Professor sowie Gründer und CEO von Boston Dynamics, Marc Raibert, im Jahr 2017, dass „autonome Roboter perspektivisch einen größeren Markt darstellen werden als das Internet“. Zukünftig werden sowohl Assistenzroboter mit anfangs noch begrenzten, immer wiederkehrenden Bewegungen als auch humanoide und androide Roboter mit digitalen Plattformen und Cloud-Lösungen verknüpft. Durch diese Synthese lässt sich das Lernen und das verbesserte Steuern von Robotern beschleunigen. Ähnlich wie bei autonomen Autos werden künstlich intelligente Softwarelösungen bei Robotern die Federführung übernehmen und den Roboterkörper steuern. Die Zukunft der Robotik liegt demnach v. a. allem in der Software, wenn diese menschliche Denkprozesse nachbildet und es Robotern neben ihrer Bewegung und Handhabung ermöglicht, sich Wissen zu beliebigen Themen anzueignen, logische Schlussfolgerungen zu ziehen und eigene Gedanken ­auszusprechen.

5.11  Advanced Robotics

225

Quellen (v.l.n.r.): researchgate.net / kuka.com / universal-robots.com / Pixabay ID: 3685829 / Phatast987  – Eigenes Werk (wikipedia.org) / Robotic Industries Association / Honda Asimo (wikipedia.org) / Boston Dynamics Atlas (wikipedia.org) / Pixabay ID: 4330186

226

5  Das digitale Technologierad der nächsten Generation

5.12 Cognitive Assistants, Robotic Process Automation Als kooperative,  selbstlernende Softwareassistenten unterstützen kognitive Assistenten uns Menschen bei der Ausführung von Aufgaben oder übernehmen diese für uns komplett. Die Personal Chatbots verstehen die natürliche Sprache, können logische Schlüsse ziehen und lernen aus der Interaktion mit ihren Anwendern. Die solftware-gestützten Assistenzsysteme helfen uns dabei, die digitale Datenflut zu bändigen und darüber hinaus neue Erkenntnisse aus großen und komplex strukturierten Informationsmengen zu gewinnen. Für die Fraunhofer-Allianz Big Data liegen die Potenziale von kognitiven Systemen insbesondere in der Konsumelektronik, im Kundenservice, in der Medizin, im Bank-, Finanz-, und Versicherungswesen, Recht sowie im Bereich der Medien, Werbung und des Marketing (Hecker et al. 2017).

Der erste Chatbot entstand am MIT Der erste Chatbot wurde von Professor Joseph Weizenbaum zwischen 1964–1966 im Artificial-­Intelligence-Labor am MIT entwickelt. Eliza konnte über Skripte verschiedene Gesprächspartner simulieren und zeigte die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache auf. Damals konnte ein Benutzer allerdings noch recht einfach herausfinden, dass er mit einer Maschine kommuniziert, da Eliza mit einigen simplen Regeln ohne besondere Intelligenz, Verstand und Einfühlungsvermögen einfach gegebene Aussagen in Fragen umwandelte. Die ersten sprachgeführten, statischen kognitiven Assistenten entstanden in den 1990er-Jahren. Mit den Jahren entwickelten sich die Systeme weiter. Beflügelt durch technologische Fortschritte bei Sprachtechnologie, KI, Big Data Analytics und Web Services etablierten sich computergestützte Assistenzsysteme als Schlüsseltechnologie. Die Sprachassistenzsysteme der Tech-Giganten Google, Apple, Amazon, Samsung, Microsoft, Alibaba, Baidu – alle wollen die Kundenschnittstelle besetzen – wenn es darum geht, der bevorzugte Personal Bot zu werden und Kundenwünsche nicht nur zu antizipieren, sondern diese schnell und für Kunden so bequem wie möglich zu erfüllen. Wer die Kundenschnittstelle im First-to-Mind-Wettbewerb zukünftig erfolgreich besetzt, baut seine Marktanteile aus. Die populärsten Systeme kommen von Apple (Siri), Microsoft (Cortana), Amazon (Alexa), Samsung (Bixby) und Goo-

5.12  Cognitive Assistants, Robotic Process Automation

227

gle (Google Assistant). Der Internetdienstanbieter 1&1 führte 2018 eine Studie zu Anwendungsfeldern für Assistenzsysteme durch. Dabei war die am häufigsten genutzte Anwendung „Musik abspielen“ (52 %), gefolgt von „Nachrichten, Wetter oder Verkehr vorlesen lassen“ (40 %) und „Internetsuche“ (29 %). Die Ergebnisse zeigten, dass Sprachassistenten für die Kommunikation im Internet noch eine untergeordnete Rolle spielten. Zu einem ähnlichen Bild kam die Kollegen von Deloitte 2019, als sie 2000 Erwachsene in Deutschland befragten. Sie zeigten auf, dass nur etwa jeder sechste Anwender  einen Sprachassistenten auf seinem Smartphone nutzte. Rund 61 % der Befragten kannten die Sprachassistenzfunktion noch gar nicht. Wer einen Assistenten im Alltag einsetzte, tat dies zur allgemeinen Suche im Internet (51 %) oder zur Wetterabfrage (37 %). Rund ein Drittel rief mittels Assistent Personen aus seiner Kontaktliste an. Und lediglich 8 % steuerten ihre Smart-Home-Systeme via Sprache. Ende 2018 testete und verglich Loop Ventures wie in den Vorjahren die Performance der einzelnen Systemanbieter. Dabei konnten Alexa, Siri, Google Assistant und Cortana fast alles Gesprochene verstehen, als ihnen rund 800 Fragen gestellt wurden. Beim Antworten stach Google Assistant vor allen Wettbewerbern heraus. Er konnte 86 % der gestellten Fragen richtig beantworten und lag damit klar vor Siri mit 74,6 %, Alexa mit 72,5 % und Cortana mit 63,4 %. Die größten Unterschiede zeigten sich im Bereich E-Commerce. Überraschend konnte hier nicht Amazons Alexa das Rennen machen, sondern sehr deutlich Google Assistant (Brien 2018). Google's Überlegenheit wurde 2019 ein weiteres Mal deutlich, als Google Assistant bereits 93% der gestellten Fragen richtig beantworten konnte und damit Siri (83%) und Alexa (80%) deutlich übertraf. Für Microsoft's Sprachassistentin Cortana hingegen wurde der Abstand zu den drei Konkurrenten scheinbar zu groß, sodass Microsoft Anfang 2020 den Stecker zog und sich aus dem Smartphone-­ Markt verabschiedete. Kognitive Assistenten in Abgrenzung zu Softwarerobotern, die strukturierte Geschäftsprozesse autonom abarbeiten Im Geschäftskontext ist die Grenze zwischen kognitiven Assistenzsystemen und Robotic Process Automation (RPA) fließend. Kognitive, mitdenkende Systeme führen zu einer kogntiven Entlastung. Sie kombinieren, bewerten und vergleichen Inhalte und unterstützen uns dabei, die Informationsflut zu ressourcenschonend bewältigen. Der Rechner wird zum Denker und bequemen Unterstützer. Von kognitiven Systemen abegrenzt, erfolgt die Unterstützungsleistung bei RPA über Software-Bots – beispielsweise indem benötigte Informationen im Hintergrund recherchiert und bestimmte Funktionen angestoßen werden, während die Anwender parallel an anderen Aufgaben  weiterarbeiten. Dies geschieht nach immer  gleichen, im Vorfeld definierten Regeln. Mithilfe von sog. Bot-Farmen sorgt RPA dafür, monotone, repetitive Abläufe in Unternehmen zu beschleunigen, indem RPA die Oberfläche von Softwares und regelbare Unternehmensprozesse automatisiert.

228

5  Das digitale Technologierad der nächsten Generation

RPA-Beispiele finden sich im Finanzwesen, wo Softwareroboter nach festgelegten Arbeitsschritten eingegangene Mahnungen auf offene Posten und Zahlungsbedingungen prüfen oder im Außendienst, wo Mitarbeiter mehrere Abteilungen kontaktieren müssen, um an benötigte Informationen zu kommen und entsprechend längere Bearbeitungszeiten die Regel sind oder beim Reklamationsmanagement, wo Reklamationen, nachdem sie eintreffen computergestützt analysiert, kategorisiert und an die richtigen Servicemitarbeiter weitergeleitet werden. In solchen Fällen verringern sich die Bearbeitungszeiten je Fall. Zudem erhöht sich die Datenqualität beim Einsatz von RPA, da Mitarbeiter, die verschiedene Softwares bedienen und Daten zwischen den Systemen übertragen müssen, mehr Fehler machen oder nach vielen Arbeitsstunden naturgemäß die Konzentration und Leistungsfähigkeit sinkt. Über RPA können Unternehmen durch Automatisierung immer gleicher Arbeitsschritte eine beachtliche Anzahl an Arbeitsstunden pro Jahr - unter Umstände sogar mehrere Personenjahre einsparen und die betroffenen Mitarbeiter stärkenbezogen in wertschöpfenderen Bereichen einsetzen. Die Liste der Anwendungsfelder bei RPA ist lang: • Zugreifen auf Unternehmenssoftwares und Webseiten und Übernahme von Routinearbeiten in transaktionsstarken Geschäftsprozessen • Auslesen, Kopieren, Verschieben und Einfügen von Daten • Befüllen von Formularfeldern • Ausführen von Wenn-dann-Befehlen • Durchführung von Berechnungen • Umsetzung von Internetrecherchen • Öffnen, Analysieren, Verarbeiten und Versenden von E-Mails • Herunterladen und Hochladen von Dateien • Verarbeiten von Informationen aus mehreren Systemen

RPA ergänzt und ersetzt die klassische Prozessautomatisierung Durch Industrieroboter inspiriert, ging die robotergesteuerte Prozessautomatisierung aus der klassischen Prozessautomatisierung hervor. Anfang der 2000er-Jahre wurden Assistenzsysteme für Social Media Posts eingesetzt, um E-Mails zu verschicken. Nach und nach lösten die Softwares Backoffice-Prozesse ab, bei denen Mitarbeiter Informationen bislang manuell in Tabellen eingaben oder Papierdokumente erstellten. Softwarerobotik hielt zudem Einzug in Frontoffice-Vorgänge, die sich direkt auf den Kundenservice auswirkten, mit dem Ziel durch schnellere und genauere Services eine höhere Kundenzufriedenheit zu erreichen. Im Gegensatz zu klassischer Automatisierung verarbeitet RPA regelbasierte, strukturierte Daten über die Benutzeroberfläche einer prozessunterstützenden Robotersoftware – z. B. bei sich wiederholenden Dateneingabefunktionen in ERP- oder CRM-Systemen. Dabei zielt RPA vorrangig darauf ab, bestimmte Prozesse zu automati-

5.12  Cognitive Assistants, Robotic Process Automation

229

sieren, ohne dabei bestehende IT- Anwendungen zu verändern oder zu ersetzen. Vor diesem Hintergrund bleibt die IT-Landschaft im Unternehmen erhalten. Heutzutage reicht das Spektrum der nächsten Evolutionsstufe der Prozessoptimierung von einfachen, händisch eingerichteten Workarounds bis hin zu komplexen Softwares auf virtuellen Maschinen (Safar 2018).

RPA-Effizienzfaktoren

RPA führt bei zahlreichen Aufgaben zu Effizienzvorteilen. Laut Institute for Robtic Process Automation variieren die Kostenersparnisse je nach Anwendungsbereich zwischen 25 und 65 %. Bei der 2018 durchgeführten Umfrage des IT-Dienstleisters Reply sahen die befragten Manager die größten Vorteile von RPA in der Produktivitätssteigerung (90 %), niedrigeren Prozesskosten (83 %), steigender Prozessqualität (63 %) sowie höherer Datenverarbeitungsqualität (53 %). Als weiteres Motiv nannten 47 % der Manager die Entlastung der eigenen Mitarbeiter (Bremmer 2018). Die Tab. 5.7 skizziert Faktoren zur Erzielung von Effizienzgewinnen durch Einsatz von RPA in Unternehmen.

230

5  Das digitale Technologierad der nächsten Generation

Quellen (v.l.n.r.): Pixabay ID: 155161 / apple.com/siri / Pixabay ID: 1957740 / Pixabay ID: 2056028 / Palm uvlist.net / wikipedia.org / Unternehmenslogos / Pixabay ID: 1093891

5.13  Internet of Things, Digital Twins, Edge Computing

231

Tab. 5.7  Vorteile durch den Einsatz von Robotic-Process-Automation-Technologie (in Anlehnung an Institute for Process Automation) 01 Volumen und längere Bearbeitungszeiten: Automatisierungsvorteile bei längeren Prozessen und hohen Volumina 02 Hohe Fehleranfälligkeit: Automatisierungsvorteile bei fehleranfälligen Prozessen mit häufig falschen Dateneingaben oder Tippfehlern 03 Hoher Standardisierungsgrad: Automatisierungsvorteile bei stark standardisierten Prozessketten mit wenig Ausnahmen 04 Hohe Prozessstabilität: Automatisierungsvorteile, wenn sich Prozessumgebungen stabil laufen und sich selten ändern 05 Häufigkeit wiederholender Eingaben: Automatisierungsvorteile bei häufig wiederholtem Kopieren bzw. Einfügen von Daten über mehrere Systeme hinweg 06 Schwierigkeit bei Prozesseinhaltung: Automatisierungsvorteile bei häufiger Nichteinhaltung vorgegebener Prozesse 07 Reaktionsgeschwindigkeit: Automatisierungsvorteile durch kürzere Reaktionszeiten und schnelleres Feedback auf Anfragen (24/7)

5.13 Internet of Things, Digital Twins, Edge Computing Das Internet der Dinge wurde maßgeblich durch das Massachusetts Institute of Technology MIT geprägt. Entstanden aus dem Forschungsfeld des Ubiquitous Computing, kennzeichnet es eine Vision, nach der sich das Internet über intelligente Geräte in fast alle Bereiche des täglichen Lebens ausdehnt. Erstmalig im Jahr 1999 von Kevin Ashton als solches benannt, beschreibt es mit dem Internet verbundene Objekte jeglicher Art. Diese Objekte erhalten über Drahtlostechnologien Zugriff auf Netzwerke und lassen sich über das Internet direkt ansteuern. Sind sie eindeutig identifizierbar, können die Dinge Daten über ihren eigenen Zustand oder ihre unmittelbare Umgebung sammeln und darauf ­reagieren. Ihre Anfänge reichen bis in die1980er-Jahre zurück, als Forscher an der Carnegie Melon Universität über ein Netzwerk den Zustand eines Cola-Automaten überprüften und herausfanden, ob sich noch kühle Erfrischungsgetränke darin befanden.

Radio-frequency Identification (RFID) als Basistechnologie für den Informationsaustausch zwischen internetfähigen Objekten Auf Internet-of-Things-Objekten angebrachte RFID-Chips dienen als Datenspeicher und werden im Moment der Auslesung über die Funkwellen eines Lesegeräts mit Strom ­versorgt. RFID ist eine Technologie für Sender-Empfänger-Systeme, die Objekte mithilfe von Radiowellen kontaktlos identifizieren und lokalisieren. Die Kosten eines RFID-­

232

5  Das digitale Technologierad der nächsten Generation

Systems setzen sich zusammen aus den Kosten für Chips, Lesegeräte und Datenbanken. In sehr großen Stückzahlen lassen sich einfache RFID-Chips heutzutage bereits zu Kosten von unter 10 Cent je Chip herstellen. Dabei trägt jeder Chip als unverwechselbare Identifikationsnummer eine IP-Adresse. Im einfachsten Fall identifiziert er lediglich den Gegenstand, in den er eingebaut oder an dem er befestigt ist. Das passiert bereits seit vielen Jahren in der Logistik, wenn sich Pakete an Lesegeräten selbst identifizieren und anschließend selbstständig auf den richtigen Weg bringen. Innerhalb der globalen Netzwerkinfrastruktur sammeln Sensoren Informationen über ihre Umwelt, z. B. Temperatur, Feuchtigkeit, Lautstärke, Lichtverhältnisse, Gewicht, Druck, Füllstand, Lage, Beschleunigung oder Informationen über weitere Objekte und Personen. Die erfassten Daten leiten die Internet-of-Things-fähigen Objekte dann über Standardkommunikationsprotokolle und intelligente Schnittstellen innerhalb des jeweiligen Netzwerks weiter. Unser wachsendes Internet-of-Things-Nervensystem Angetrieben von der Dynamik des Internets, drahtloser Sensorik und eingebetteter Informationsverarbeitung überstieg bereits 2008 die Anzahl der mit dem Internet verbundenen Geräte mit 6,5 Milliarden die Anzahl der auf der Erde lebenden Menschen. Jahr für Jahr kommen Milliarden neue internetfähige Geräte hinzu. Auch ihre Leistungsfähigkeit und Nutzbarkeit erweitert sich kontinuierlich, sodass die angeschlossenen Objekte gerade durch ihre Vernetzung über ihren alltäglichen Gebrauchswert hinauswachsen. Um das Zusammenspiel zwischen den internetfähigen Geräten zu verbessern, arbeiteten Hardwareund Softwareunternehmen, Service-Provider und Komponentenhersteller daran, die mobile IP-Kommunikation auszubauen. Durch die Einführung von IPv6 steht ein Adressierungsbereich mit 39 Stellen zur Verfügung, über den seitdem eine schier unvorstellbare Anzahl unterschiedlicher Objekte angesteuert werden kann. Somit sind die Weichen gestellt, dass reale und virtuelle Welten weiter zusammenwachsen und unser digitales Nervensystem Jahr für Jahr vergrößern. Das Internet-of-Things (IoT) sorgt dafür, dass irgendwann alles mit allem kommunizieren wird. Laut dem Telekommunikationsunternehmen Ericsson werden 2022 rund 29 Mrd. Internet-of-Things-Geräte existieren: 2,1 Mrd. Geräte mit hoher und 16 Mrd. mit kurzer Funkreichweite, 1,7 Mrd. PC, Laptops oder Tablets, 8,6  Mrd.  Smartphones und 1,3  Mrd.  Festnetztelefone  – wie Abb.  5.18 zeigt.  Das Forschungsinstitut ging 2019 von einem weiteren massiven Anstieg IoT-­fähiger Endgeräten aus. Bis 2025 soll die Anzahl auf rund 75 Mrd. Geräte ansteigen - das sind rund zehn Mal soviel Geräte wie Menschen auf der Erde leben werden. Internet-of-Things-Plattformen Um das Potenzial des Internets der Dinge voll auszuschöpfen, bedarf es leistungsstarker, Cloud-basierter Anwendungen, mit denen sich Internet-of-Things-Sensordaten überwachen, analysieren und für Vorhersagen aufbereiten lassen. Seit Jahren entwickeln die großen Technologiekonzerne wie Amazon, Cisco, GE, Google, HPE, IBM, Intel, Microsoft,

5.13  Internet of Things, Digital Twins, Edge Computing

233

Abb. 5.18  Global vernetzte Internet-of-Things-Geräte. (Quelle: Ericsson Mobility Report 2018)

Oracle, Bosch, Deutsche Telekom, Siemens oder SAP ihre Internet-of-Things-Plattformen und -Services weiter, um die Anbindung, das Management und die Sicherheit von Internet-of-Things-Geräten zu verbessern. Die Entwicklungsfortschritte zeigen sich in Form von besserer Verwaltbarkeit, Interoperabilität, Datenanalyse oder Skalierbarkeit. Vernetzte Industrie 4.0 – von der digitalen Fabrik zur intelligenten Fabrik Der Vernetzungsgrad zwischen Menschen, Maschinen und Produkten steigt. Und die durch Vernetzung aufgezeichneten Daten bringen Mehrwerte in den Märkten oder Effizienzgewinne in der Produktion. Daraus entstand die Vision der Industrie 4.0 als  intelligenter Zusammenschluss von Maschinen und Abläufen in der Industrie mit Hilfe von Informations- und Kommunikationstechnologie. Industrie 4.0 soll die Produktion auf eine neue Entwicklungsstufe heben. Der Zentralverband Elektrotechnik und Elektroindustrie ZVEI spricht in diesem Zusammenhang von der „Verbindung der Informations- und Kommunikationstechnologie mit der Automatisierungstechnik zum Internet der Dinge und Dienste mit hohen Vernetzungsgraden in und zwischen Produktionsanlagen“. Die Industrie  4.0 versetzt Unternehmen in die Lage, intelligente Fabriken zu entwickeln, in denen alle Wertschöpfungselemente wie Maschinen, Werkzeuge und Ressourcen miteinander in Echtzeit kommunizieren. In der Folge können Unternehmen ihre Güter schneller, bedarfsgerechter und v. a. effizienter produzieren (s. weitere Anwendungsbeispiele und Nutzen im Kontext Internet der Dinge in Tab. 5.8). Während die intelligente Fabrik oftmals noch eine Zukunftsvision ist, hat sich die digitale Fabrik bereits in vielen Unternehmen etabliert oder ist zumindest in Planung. Als Basis für Industrie 4.0 fügt sie digitale Modelle, Methoden und Werkzeuge zusammen und bildet Fertigungsprozesse sowie Produkte virtuell ab. In der vernetzten digitalen Fabrik kommunizieren Menschen, Maschinen und Produkte in Echtzeit miteinander über alle Funktionsbereiche hinweg. Entlang der gesamten Wertschöpfungskette werden neue

234

5  Das digitale Technologierad der nächsten Generation

Tab. 5.8  Anwendungsbeispiele und Nutzen im Kontext Internet der Dinge Bereiche Smart Factory, Smart Supply Chain, Connected Utilities

IoT-Anwendungsbeispiele Automatisierte Überwachung der Prozesskette Flussoptimierung Selbstoptimierende Produktion Nachverfolgung von Gütern Echtzeitinventur Vorausschauende Wartung Smart Agriculture, Ortsspezifische Bodenbearbeitung Beobachtung von Saatgut und Connected Viehherden Farming, Smart Überwachung von Saatzeit und Greenhouses Kornströmen Vertikaler Anbau Analyse des Dünger- bzw. Wasserbedarfs Smart Cities Überwachung öffentlicher Räume und Infrastrukturen Intelligente Verkehrsmanagementsysteme und Straßenbeleuchtung Intelligente Energiesystem und Abfallwirtschaft Umwelt-Monitoring

Smart Homes and Buildings

Connected Plants

Connected Cars Connected Transportation

Beleuchtung Heizung Klima Rollläden Vernetzte Haushaltsgeräte Zugangskontrolle und Objektüberwachung „Lernendes Haus“ Fernüberwachung und Optimierung von industriellen Großanlagen und speziellen Produktionsumgebungen Kommunikation zwischen Fahrzeugen und Umgebung (C2C, C2I) Fahrzeugdiagnose und -überwachung Intelligentes Flottenmanagement Überwachung Transportwege und -zeiten

Nutzen Verbesserung der Geschäftsprozesssteuerung Optimierte Ausrüstung und Lagerhaltung Verringerung von Prozesskosten Risikominimierung Optimale Versorgung der benötigten Stoffe in der richtigen Menge zur richtigen Zeit Verringerter Ressourceneinsatz

Situationsangepasste Verkehrssteuerung Optimierter Verkehrsfluss Umweltfreundlichere und nachhaltigere Stadtentwicklung Höhere Sicherheit durch Hypervernetzung Verbesserte Erfüllung von Anforderungen der alternden Gesellschaft Energieeinsparung Erhöhte Sicherheit Bequemlichkeitsgewinn Erhöhte Wohnqualität

Höhere Sicherheit Effizienzgewinne Reduzierung ungeplanter Ausfälle Genaue Informationen über Verkehrssituation und Stauvermeidung Vorausschauende Fernwartung Just-in-Time-Lieferung Vermeidung von Fehlzeiten (Fortsetzung)

5.13  Internet of Things, Digital Twins, Edge Computing

235

Tab. 5.8 (Fortsetzung) Bereiche Connected Health

IoT-Anwendungsbeispiele Ambient Assisted Living Ambient Intelligence Fernüberwachung von Patienten Wearables am Körper überwachen Vitalfunktionen und Gesundheitsparameter Ambulanztelemetrie Medikamentenverfolgung

Nutzen Bessere Vorsorge Bessere Überwachung von Gesundheitsrisiken Bessere Gesundheitsversorgung Verbesserte Fitness Optimiertes Krankheitsmanagement

Technologien in Form von Hard- und Software eingebunden, die eine durchgängige Datentransparenz sicherstellen. Auch können Lieferanten, Wettbewerber, Distributoren oder Kunden zu einem hohen Grad in das Wertschöpfungssystem integriert sein. Diese modularen, flexiblen Produktionssysteme gestatten es, individualisierte Losgrößen hervorzubringen – im Bedarfsfall bis zum sog. Segment of One. Die Folge: „unique“ Produkte – im Extremfall erhalten 10.000 Kunden das ursprünglich gleiche Produkt nun in (leicht) abgewandelter Ausführung, die spezielle Kundenwünsche wie z.  B.  Form, Materialeigenschaften oder die Konfiguration von Leistungsparametern berücksichtigt. In der nächsten Evolutionsstufe der intelligenten Fabrik koordinieren sich intelligente Maschinen und Robotersysteme selbst. Fahrerlose Transportfahrzeuge erledigen Logistikaufträge autark. Transportbehälter übermitteln Informationen über die individuelle Kennung, die aktuelle Position und ihre gegenwärtige Befüllung. Die Produktionsanlagen haben Diagnose- und Reparaturfähigkeiten und passen die Fertigung automatisch an sich verändernde Begebenheiten an. Beispielsweise kompensieren sie Änderungen in der Nachfrage oder Ausfälle innerhalb der Wertschöpfung. Fällt eine Maschine aus, organisiert die intelligente Fabrik die Produktion über alternative Wege selbstständig neu.

236

5  Das digitale Technologierad der nächsten Generation

Quellen (v.l.n.r.): rfidjournal.com / livinginternet.com / twitter.com/kevin_ashton / Pixabay ID: 4129218 / Pixabay ID: 4317139 / Computer History Museum / CERN / INTEGER Millennium House / Pixabay ID: 2660914 / Pixabay ID: 3395996 

5.13  Internet of Things, Digital Twins, Edge Computing

237

Digital Twins im Kontext von Internet-of-Things Die Technologie der sog. virtuellen oder digitalen Zwillinge gibt es laut Forbes bereits seit 2002. Doch erst mit dem Aufstreben des Internet of Things sollte die Technologie eine zunehmende Bedeutung erfahren. Digitale Zwillinge stellen Cloud-basierte, dynamische, virtuelle Abbilder von physischen Produkten, Prozessen oder Systemen entlang ihres Lebenszyklus dar. Sie nutzen Echtzeitdaten, um ganzheitliche Verständnisse, Lernprozesse und Schlussfolgerungen zu ermöglichen (Bolton et  al. 2018). Auf dem Sprung zur ­Schlüsseltechnologie bestehen digitale Zwillinge mehr als nur aus reinen Daten. Sie sind vielmehr ein Mix aus Software, Hardware und IoT-fähigem Feedback. Hinzu kommen Offline- und Online-Simulationen, datenbasierte Modelle des Normalverhaltens und Algorithmen, die ihre Gegenstücke aus der realen Welt präzise bezüglich Eigenschaften und Verhalten beschreiben. Häufig bestehen die Zwillinge aus verschiedenen Ebenen, wobei jede virtuelle Ebene einer bestimmten physikalischen Ebene entspricht. Digitale Zwillinge werden mit der Produktidee geboren, dienen während der Entwicklungsphase als virtuelle Vorlage, wachsen im Produktentstehungsprozess mit und bleiben über den gesamten Produktlebenszyklus untrennbar mit ihrem physischen Abbild verbunden. Werden Simulationsmodelle mit realen Daten ausgeführt, verhält sich der digitale Zwilling idealerweise genauso wie sein reales Gegenstück. Und am realen System angebrachte Sensoren aktualisieren den digitalen Klon ständig und stellen auf diese Weise eine Echtzeitüberwachung des Systemzustands sicher. Warum Unternehmen die Digital-Twin-Technologie einsetzen Digitale Zwillinge können Prozesse oder Produkte optimieren, ohne reale Prozesse dabei zu beeinträchtigen. Wird eine optimale Lösung gefunden, kann die reale Produktion umgestellt werden (Gesellschaft für Informatik 2017). Statt auf kostenintensive Prototypen­ entwicklung und langwierige Versuchsreihen zu setzen, können Unternehmen mithilfe von Datenanalyse- und Machine-Learning-Funktionen verschiedene Szenarien oder Konstruktionsänderungen innerhalb kurzer  Zeit durchspielen, Lösungsstrategien entwickeln und falls notwendig wieder verwerfen sowie Verbesserungsmöglichkeiten ausloten und umsetzen. Damit werden physische Prototypen prinzipiell überflüssig. Die Entwicklungszeit lässt sich reduzieren und die Qualität von Produkten oder Prozessen verbessern. Auch ganz neue Produkte und Services lassen sich mit digitalen Zwillingen modellieren und im Markt testen – noch bevor sie Kunden überhaupt nachfragen. Damit erhalten Unternehmen die Möglichkeit, physische Tests durch virtuell durchgeführte Erprobungen zu ersetzen. Durch die Anwendung von Simulationsmodellen können Unternehmen Statusaktualisierungen und Was-wäre-wenn-Analysen im virtuellen Raum durchführen, um beispielsweise optimale Parameter für eine bestimmte Systemfunktionen zu ermitteln. Dazu findet zwischen digitalen Zwillingen und ihren realen Gegenstücken ein kontinuierlicher Datenaustausch statt. Neben diagnostischen Zwecken dient die Technologie aber auch prognostischen Zwecken. Im Bereich vorausschauender Wartung können an Maschinen angebrachte Sensoren fortlaufend Kontrollwerte erfassen und in die Cloud übertragen. Teilen

238

5  Das digitale Technologierad der nächsten Generation

Hersteller und Nutzer ihre Daten miteinander, können Hersteller die Verschleiß- und Belastungswerte oder Verbrauchszyklen besser berechnen, um Wartungen frühzeitig zu veranlassen und kostenintensive Reparaturen zu vermeiden. Digital Twins und Multiplikatoreffekt Digitale Zwillinge heben das Altern-auf-Knopfdruck-Verfahren auf ein neues Level, denn die virtuellen Kopien von physischen Maschinen erlauben ein wesentlich besseres Verständnis aller zusammengeführten Vorgänge auf Basis von Daten und damit genauere Vorhersagen. Nach Francois Lamy bewirkt die Konvergenz von physischen Anlagen und ihren digitalen Fundamentaldaten durch digitale Zwillinge im gesamten Unternehmen einen Multiplikatoreffekt – angefangen bei neuen Produkten und Geschäftsmodellen bis hin zu besseren technischen Entscheidungen, verbesserter Effizienz und erhöhter Wartungsfreundlichkeit. Unternehmen können digitale Zwillinge auch als eine Art Sandbox-­ Anwendung nutzen, um neue Ideen zu testen und Erkenntnisse in Bezug auf das reale Gegenstück abzuleiten. Im Gegenzug können sie aus den realen Anwendungen wiederum neue Erkenntnisse für ihre Zwillinge gewinnen. Die Datenflüsse stehen dabei in einem wechselseitigen Prozess, bei dem sich sowohl die digitale Version sowie die Hardware gleichermaßen weiterentwickeln lassen (Keane 2018). Zehn Geschäftsnutzen beim Einsatz von Digital-Twin-Technologie

1. Designoptimierung in der Planungsphase 2. Verbesserung von Produkt- und Produktionssystemeffizienz 3. Zeitersparnis durch schnellere Entwicklungs- und Optimierungszyklen 4. Tests unter extremen (Umwelt-)Bedingungen 5. Qualitätssteigerung über optimierte, fehlerfreie Betriebsprozesse von Beginn an 6. Aussagekräfte Prognosen zu Leistungsparametern und Betriebsverhalten 7. Ganzheitliche Sicht auf Produkte, Anlagen und Prozesse in Echtzeit 8. Verbesserte Verfügbarkeit von Anlagen und Maschinen 9. Verringerung von Durchlaufzeiten („50  Millionen gefahrene Meilen an einem Tag“) 10. Basis für neue Geschäftsmodelle

Digital Twins auf Wachstumskurs Im Gartner Hype Cycle 2018 befand sich die Twin-Technologie auf dem Gipfel der öffentlichen Aufmerksamkeit. In seiner 2018 veröffentlichen Erhebung zeigte Gartner, dass 48 % der befragten Unternehmen aus Deutschland, USA, China und Japan, die IoT in ihrem Unternehmen vorantrieben, die Technologie der digitalen Zwillinge entweder bereits nutzen oder zeitnah implementieren wollen. Bis 2022 soll sich die Zahl der Unternehmen,

5.13  Internet of Things, Digital Twins, Edge Computing

239

die Twin-Technologien integrieren, verdreifachen (Gartner 2018). Da digitale Zwillinge maßgeschneidert eingesetzt werden, halten Unternehmen meist eine Vielzahl unterschiedlicher Digital-Twin-Konfigurationen mit flexibel erweiterbaren Datenmodellen  vor, um unterschiedliche Einsatzformen auszuloten. Edge Computing als weitere aufstrebende Technologie bei Internet of Things Beim Edge Computing handelt es sich in Abgrenzung zum Cloud Computing um eine Datenverarbeitung am Rand eines Netzwerks in einer verteilten, offenen IT-Architektur mit dezentralisierter Verarbeitungsleistung. Da Edge Computing die Daten in der Peripherie von Netzwerken am Ort der Datenentstehung verarbeiten kann, steigt die Bedeutung dieser aufstrebenden Technologie mit der zunehmenden Menge an Daten, die durch das Internet der Dinge erzeugt wird. Wie Edge Computing funktioniert Edge Computing verarbeitet bestimmte Daten von einem (mobilen) Gerät, einem lokalen Rechner oder Server direkt vor Ort am Endgerät, ohne dass eine Übertragung an ein Rechenzentrum erfolgen muss (Karlstetter 2018). So können vernetzte Geräte und intelligente Anwendungen bereits während des Erstellungsprozesses auf Daten zugreifen. Da­ rüber hinaus können sie zeitnah darauf reagieren. Edge Computing sortiert die Daten fast ohne Verzögerung am Ort der Entstehung vor und löscht alle  echtzeitrelevanten „Wegwerfdaten“ nach einer ersten Analyse wieder. Viele IoT-Geräte benötigen diese unkritischen Daten in Echtzeit für eine sofortige Entscheidungsfindung – danach aber nicht mehr. Anschließend leiten die Edge-Computing-Systeme lediglich die daraus abgeleiteten Erkenntnisse bzw. die kritischen Daten an den jeweiligen Server in der Cloud weiter. Aus solchen Daten können Unternehmen bei Bedarf zu einem späteren Zeitpunkt noch Nutzen ziehen. Zusammenfassend entlastet Edge Computing konventionelle Computing-Systeme und gewährleistet die für das Internet der Dinge so wichtigen niedrigen Latenzzeiten. Beschleunigte Datenströme und eine Datenverarbeitung in Echtzeit sind das Resultat (Tab. 5.9). Trotz dieser Vorteile gilt es perspektivisch als sehr wahrscheinlich, dass Edge Computing nicht zu einer Ablösung des Cloud Computing führen wird, sondern beide Technologien nebeneinander koexistieren und komplementär zueinander eingesetzt werden. Besseres Handling der steigenden Datenflut Die Analysten der International Data Group stellten 2019 fest, dass bereits rund 43 % der Internet-of-Things-Daten mit Edge-Computing-Systemen an den Rändern von ­Netzwerken verarbeitet wurden. Vor diesem Hintergrund soll Edge Computing zukünftig ein besseres Handling der immer weiter steigenden Datenflut sicherstellen. Denn Schätzungen zufolge wird jede Person bis 2025 täglich rund 4800 Kontakte mit Internet-of-Things-­Geräten haben – das sind drei Interaktionen je Minute (Martins und Schreiner 2019).

240

5  Das digitale Technologierad der nächsten Generation

Tab. 5.9  Vor- und Nachteile beim Edge Computing Vorteile Edge Computing Ein Edge-Rechenzentrum kann die übermittelten Daten sofort auswerten und anschließend auswählen, was später an ein Core-Rechenzentrum weiterzuleiten ist Höhere Sicherheit, da sensible, unternehmenskritische Kunden- oder Geschäftsdaten nicht in die Cloud übertragen werden müssen – stattdessen verbleiben sie verschlüsselt lokal Vernetzte Internet-of-Things-Geräte funktionieren auch bei temporärem Ausfall einer Internetverbindung oder Verzögerungen bei der Cloud-Anbindung Schnellere Datenverarbeitung, geringere Wartezeiten und verbesserte Service-Qualität durch geringeren Netzwerkverkehr sowie verbesserte Unterstützung von Echtzeitanforderungen

Nachteile Edge Computing Durch verteilte Systeme höhere Komplexität der Netzwerkstruktur mit Komponenten von zum Teil unterschiedlichen Herstellern Kapazitätsengpässe bei der Verarbeitung von großen Datenmengen und Schwierigkeiten bei unregelmäßigem Rechen- oder Speicherbedarf Höhere Anschaffungskosten für Edge-­ Hardware, da mehr lokale Hardware bereitgestellt werden muss als bei zentralisierten Cloud-Architekturen Höherer Administrations- und Wartungsaufwand durch zusätzliche Kontrolle der Endgeräte und Sensorsysteme mit Blick auf Missbrauchsschutz und Ausfall

5.14 Blockchain Blockchain ist eine verteilte, verschlüsselte Technologie zur Feststellung von Identitäten und Dokumentationen bei Transaktionen im Internet. Es handelt sich dabei um eine dezentrale Datenbank mit einer kontinuierlich erweiterbaren Liste aus Datensätzen (Blöcke). Typischerweise enthält jeder Block einen Kopfbereich mit folgenden Attributen:

• • • • • •

ID, Zeitstempel, Schwierigkeitsgrad („difficulty“), digitaler Fingerabdruck („hash“) des vorgängigen Blocks, Hash des aktuellen Blocks sowie zusätzliche Information („nonce“), die in den Hash einfließt.

Das Besondere dabei: Jeder digitale Fingerabdruck ist einzigartig. Wenn auch nur ein Zeichen innerhalb eines Blocks geändert wird, verändert sich der gesamte Fingerabdruck. Zusätzlich gibt es ein Datenfeld, in dem die entsprechenden Transaktionsdaten enthalten sind. Erreicht ein Block seine vorgesehene Größe, entsteht der nächste und wird mit sei-

5.14 Blockchain

241

nem Vorgänger verbunden. Damit stellt die Technologie sicher, dass keine Daten verloren gehen. Schritt für Schritt entsteht ein virtueller Zusammenschluss, bei dem sich die einzelnen Blöcke zu einer fest miteinander verbundenen Kette auffädeln. Wie Blockchain in der Praxis funktioniert Im Unterschied zu konventionellen Datenbanken wird die Blockchain nicht auf einem einzelnen Computer oder Server vorgehalten  – vielmehr besitzen alle Teilnehmer des Netzwerks eine vollständige Kopie der kompletten Blockchain in ihrem lokalen Speicher. Aus diesem Grund bildet eine Blockchain eine replizierte, geteilte Datenbank ab, die es den Netzwerkteilnehmern ermöglicht, Transaktionen selbst zu überprüfen, ohne sich auf eine externe Aufsichtsinstanz verlassen zu müssen (Andersen 2016). Die einheitliche, durch kryptographische Verfahren nachträglich nicht veränderbare Datenbasis („ledger“) dient als zentrale, verifizierende Auskunftsquelle für den Nachweis von gespeicherten Informationen. Die Funktionsweise der Schrittmachertechnologie Blockchain veranschaulicht Abb. 5.19 am Beispiel einer Transaktion. Um an auf Blockchain basierenden Systemen teilzunehmen, benötigen Unternehmen eine Zugangssoftware (Wallet). Diese funktioniert wie ein persönlicher, digitaler Schlüsselbund, in dem Eigentumsnachweise gespeichert werden. In der Wallet befinden sich eindeutige Schlüsselpaare  – bestehend aus einem privaten Schlüssel (Private Key) und einem öffentlichen Schlüssel (Public Key). Wenngleich die öffentlichen Schlüssel für alle Teilnehmer sichtbar sind, bleiben die privaten Schlüssel geheim – vergleichbar mit Passwörtern. So lässt sich jede Bewegung oder Transaktion innerhalb der Blockchain mithilfe des privaten Schlüssels signieren. Ohne diese Signatur wäre eine Transaktion nicht gültig. Aufgrund des asymmetrischen Verschlüsselungsverfahrens ist es für Netzwerkteilnehmer unmöglich, mit einem öffentlichen Schlüssel allein einen privaten Schlüssel zu bestimmen. Durch die Kombination aus Verschlüsselung und ihrem massiv verteilten Charakter ist eine Blockchain nicht nachträglich modifizier- oder manipulierbar (Dommel 2018).

Abb. 5.19  Funktionsweise der Blockchain (in Anlehnung an Cryptocurrencydiy)

242

5  Das digitale Technologierad der nächsten Generation

Charakteristische Merkmale der Blockchain-Technologie

• Eindeutigkeit: Jeder Wert lässt sich eindeutig einem Teilnehmer zuordnen. Unklarheiten über Ansprüche an Werten sind ausgeschlossen – Besitz zurückzuhalten oder mehrfach zu veräußern ist unmöglich. • Unveränderbarkeit: Jede Blockchain ist nicht mehr veränderbar – via Zeitstempel werden alle aufeinander folgenden Vorgänge zeitlich nachprüfbar dokumentiert. • Neutralität: Kein Unternehmen, kein Staatsorgan, kein zentraler Verwalter oder keine einzelne Person kann über die Blockchain-Datensätze bestimmen – jeder Teilnehmer verfügt über die gleichen Zugriffsrechte. Da Transaktionen direkt zwischen den Teilnehmern durchgeführt werden, lassen sich marktbeherrschende Stellungen verhindern. • Nachverfolgbarkeit: Jeder Vorgang wird automatisch erfasst. Was genau dokumentiert wurde, ist sekundär. Viel wichtiger ist, dass später durchgeführte Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis früherer Transaktionen nachweisen. • Vertraulichkeit und Anonymität: Durch den Einsatz von Kryptografie gewährleistet Blockchain eine hohe Vertraulichkeit und Anonymität. • Hohe Sicherheit: Die Daten der Blockchain sind bei allen Netzwerkknoten bzw. Verzweigungspunkten („nodes“) identisch – das sorgt für eine hohe Integrität der gespeicherten Daten und macht Cyberangriffe auf das gesamte Netzwerk äußerst schwierig. Da die Daten nicht bei einem einzelnen Anbieter hinterlegt sind, sondern dezentral bei allen Nutzern gleichzeitig, ist es schwer, Blockchains zu manipulieren. Die massive Redundanz gewährleistet zudem den Schutz vor Datenverlust. • Hohe Transaktionsgeschwindigkeit: Transfers können nahezu in Echtzeit stattfinden. • Niedrige Transaktionskosten: Da bei Transaktionen zwischen Geschäftspartnern die üblicherweise dazwischengeschalteten vertrauensbildenden Zwischeninstanzen wie Banken, Notare oder Staaten wegfallen können, sind Unternehmen in der Lage, Teile ihrer Geschäftsprozesse noch besser zu automatisieren und Zeit- und Kostenersparnisse zu realisieren.

Bitcoin als populärste Blockchain-Anwendung Die erste populäre Blockchain-Anwendung war das digitale Zahlungsmittel und dezentrale Buchungssystem Bitcoin. Unter dem Eindruck des Versagens von Banken und Regierungen entschloss sich eine Person oder eine Gruppe aus Entwicklern während der Finanzkrise 2008 dazu, unter dem Pseudonym Satoshi Nakamoto die Bitcoin-Anwendung zu entwickeln. Das offene System der Bitcoin-Blockchain resultierte aus der Skepsis gegenüber institutionellen Vermittlern. Von nun an sollte keine zentrale, kontrollierende und kommerziell verwertende Instanz mehr dazwischengeschaltet sein. Aus diesem Grund sind die Transaktionsdaten der Bitcoin-Blockchain prinzipiell öffentlich. Bei einer Transaktion weisen sich ihre Teilnehmer per Kontonummer (Public Key) aus, die sie in ihrem digitalen Schlüsselbund (Wallet) speichern. Mit ihrem privaten Schlüssel (Private Key) im Wallet,

5.14 Blockchain

243

stellen sie unter Beweis, dass ihnen entsprechende Bitcoins gehören, die der Kontonummer zugeordnet sind. Damit ist der Private Key einer Blockchain im wörtlichen Sinn der Schlüssel zu allen Vermögenswerten eines Teilnehmers, die dieser selbst besitzt. Und lediglich mithilfe des Private Key ist es Teilnehmern möglich, Bitcoins zu übertragen, da dieser als kryptographischer Schlüssel die Transaktion autorisiert. Jede neue Bitcoin-­Transaktion wird in einem Block dokumentiert und an das Ende der Kette angehängt. Mit jedem neuen Block aktualisiert sich die Kette auf jedem Knoten im Blockchain-Netz automatisch. Transaktionen im Bitcoin-Ökosystem Als Sender und Empfänger können alle Netzwerk-Teilnehmer jederzeit nachvollziehen, wie viele Bitcoins von wo nach wo transferiert wurden – die hinter den Adressen stehenden Personen allerdings bleiben anonym (Rueß 2018). Das Netzwerk wickelt alle Transaktionen ab, indem es zunächst alle Transaktionen eines bestimmten Zeitraums sammelt und diese in Listen (Blocks) zusammenfügt. Nun obliegt es den sog. Schürfern (Miners), neue  Transaktionen zu bestätigen und in das virtuelles Kontenbuch einzutragen: die Blockchain. Um die Sicherheit der Hauptquelle zu gewährleisten, erfolgt die Übertragung in die Blockchain erst nach der Verschlüsselung des Blocks über dessen Hash – dem digitalen Fingerabdruck, der sich aus Buchstaben und Zahlen zusammensetzt. In Abgrenzung zum früheren Goldschürfen gibt es beim Bitcoin-Schürfen auch finanzielle Ausgleiche für nützliche Dienste. Entlohnt werden Miner für ihre Aufwände in Bitcoin gemäß einer Bitcoin-­Transaktionsgebühr für Hardware und Stromkosten, die durch das Mining entstehen. Miner erhalten ihre Gebühren, nachdem ein neuer Block erstellt wurde. Um welchen Miner es sich dabei handelt, ist bei der Vielzahl und der Geschwindigkeit der Transaktionen purer Zufall. Damit betreiben und sichern Miner das Bitcoin-Netzwerk mit einen Prozess, bei dem Rechenleistung zur Transaktionsverarbeitung und Synchronisierung aller Nutzer im Netzwerk zur Verfügung gestellt wird (Phoenix 2018). Die Teilnahme ist nicht beschränkt. Grundsätzlich kann jeder Miner sein, der die quelloffene Bitcoin-Software herunterlädt und seine Rechnerkapazität zur Verfügung stellt (Rueß 2018). Zahlen und Fakten Rund um die Uhr transferieren Menschen Bitcoins über das Blockchain-Netzwerk. Mitte Juli 2019 hatte die Kryptowährung laut Statista eine Größe von 230 GB. Zur gleichen Zeit lag die Währung auf rund 9600 Netzwerkknoten (Nodes) redundant und öffentlich zugriffsbereit vor  – davon fielen 25,7 % auf die USA, gefolgt von Deutschland mit 19,7 % und Frankreich mit 6,4 %. Zu diesem Zeitpunkt waren etwa 17.820.000 Bitcoins zum Marktpreis von 10.380 US$ verfügbar. Die Marktkapitalisierung betrug in Summe rund 185 Mrd. US$. Lag diese Ende 2018 bei rund 60 Mrd., verdreifachte sie sich innerhalb von nur einem halben Jahr. Zum Vergleich: Die Marktkapitalisierung der zweiterfolgreichsten Kryptowährung Ether lag Mitte Juli 2019 bei rund 24 Mrd. und der Einzelpreis bei rund 225 US $. Noch ist die Krypowährung hochvolatil. Als der Kurs Ende 2017 seinen Sturzflug antrat und innerhalb eines Jahres von rund 20.000 auf 3400 US-Dollar, abstürzte, pendelte die Währung von Mitte 2019 und Anfang 2020 zwischen rund 6600 und 12.900 US-Dollar. Im Januar 2020 lag die Bitcoin-Marktkapitalisierung bei etwa 157 Mrd.US-Dollar.

244

5  Das digitale Technologierad der nächsten Generation

Vorteile der Blockchain-Technologie im Unternehmenskontext

• Blockchain bietet die Möglichkeit, große Datenmengen unternehmensübergreifend zu sammeln und zu analysieren. Gleichzeitig erlaubt sie das automatische Aufspüren von Schwachstellen in Lieferketten, im Zahlungsverkehr und Geschäftsprozessen (Dommel 2018). • Durch die eindeutige, unverfälschte und dauerhafte Speicherung von Informationen ermöglicht Blockchain eine teilweise enorme Verringerung von komplexen Prozessen, Regularien und Nachweisen. • Einsparpotenziale liegen u. a. in der Buchhaltung, Dokumentation, Belegerfassung und Wirtschaftsprüfung. Der Transfer von Werten lässt sich in der Blockchain so abbilden, dass darüber für beide Seiten vollständige Einigkeit hergestellt ist. So können Unternehmen ihre interne Buchhaltung gegen die Blockchain spiegeln, um ihre Transaktionen vollständig zu erfassen. Die Abstimmung der Konten innerhalb des Unternehmens ist nicht mehr erforderlich, da die Blockchain die allein gültige, vollständige Wahrheit über die Transaktionen enthält (Andersen 2016). • Als digitaler Notar ebnet Blockchain den Weg für innovative digitale Geschäftsmodelle ohne Mittlerinstitution, denn sie geht weit über die Erscheinung des digitalen Bargelds hinaus. In der Blockchain lassen sich eine Vielzahl von Daten speichern und deren Integrität garantieren. Beispiele finden sich bei Kaufverträgen, Grundbucheinträgen oder Urheberrechtsinformationen.

Blockchain könnte eine Vielzahl globaler Herausforderungen lösen Das Magazin Wired veröffentlichte 2018 eine lange Liste mit 187 Herausforderungen, die sich „with the magic of blockchain“ möglicherweise lösen lassen – u. a. globale Armut, Wirtschaftskrisen, Klimawandel, offenere globale Märkte, Wasserversorgung, Rentensysteme, Versicherungsbürokratie, Transportversicherungsrisiken, Sicherung bei der Speicherung von Gesundheitsdaten, Unterstützung von Mobilfunknutzern bei der Monetarisierung ihrer Daten, KI-Forschung, gefälschte Waren, Verbindung von Innovationsakteuren und Know-how-Trägern, Transparenz und Vertrauen in globale Lieferketten, Automatisierung, Cashflow-Probleme bei kleinen und mittleren Unternehmen, gefälschte Nachrichten, Beschleunigung von Transaktionen, Bewertung von Sammlerstücken, illegaler Diamantenhandel, Währung für Sportwetten, Reiseunternehmen oder Gesundheitsdienstleister, unfaires Online-Glücksspiel, Nutzerverifizierung bei der Online-Partnersuche, Tokenisierung von realen Gegenständen, Seniorenbetreuung, Abrechnungsprozesse bei Krankenkassen, Kontrolle von personenbezogenen Daten, Sicherheit bei Luxusuhren, gold- oder edelmetallgeprägte Kryptowährung und Demokratisierung des Goldhandels, Transparenz bei gemeinnützigen Organisationen, CO2-Bilanz bei Konzernen, Vertrauen in Regierungen, Unternehmen oder Medien bis hin zur besseren Kontrolle von Anlegern über ihr Vermögen (Tab. 5.10). Auch wenn diese Liste eindrucksvoll klingen mag, steht

5.14 Blockchain

245

Tab. 5.10  Zehn Anwendungsfelder und Beispiele für Blockchain-Technologie Blockchain-Anwendungsfelder und Beispiele Smart Contracts bringen Transparenz und lückenlose Smart Contracts bei Nachverfolgbarkeit in Lieferketten. Sie ersetzen Intermediäre, wie Versicherungen, im beispielsweise Banken oder Notare, deren Mehrwert es ist, Sicherheit Handel oder der und Vertrauen zwischen Handelspartnern zu schaffen. Verträge liegen Logistik nicht mehr in Papierform vor – sie sind eingebettet in Computerprotokolle. Damit lassen sie sich technisch effizienter überprüfen und abwickeln. So könnte ein Versicherungsunternehmen seine Beiträge fortlaufend evaluieren und an das Verhalten seiner Versicherten anpassen. Sobald sich die Vertragspartner auf ein Regelwerk geeignet habe, setzt die Blockchain dieses Regelwerk über ausgeführte Programmcodes (Wenn-dann-Bedingungen) wie bei Vertragsabschluss vereinbart, fair, wertneutral und exakt um. Sobald ein bestimmtes Ereignis mit direktem Bezug zu einem Vertragsinhalt eingetreten ist, löst es eine entsprechende Aktion aus. Ein über Blockchain abgewickelter Autokauf könnte einen digitalen Autoschlüssel für den neuen Eigentümer freischalten, sobald ein vereinbarter Betrag auf dem Konto des Verkäufers eingegangen ist. Der digitale Vertrag kommuniziert über Blockchain direkt mit dem Fahrzeug. Sollte eine Ratenzahlung nicht geleistet werden, wird es automatisch gesperrt (Moring et al. 2018). Zahlungs- und Seit rund Hunderten von Jahren bieten Banken ihren Prozess zur Abwicklungssysteme Wertübertragung als Intermediäre an. Lässt sich ein herkömmliches bei Banken Zahlungs- und Abwicklungssystem via Blockchain verifizierbar und verlässlich ersetzen, wird die Beteiligung von Banken weitgehend überflüssig. Blockchain kann die Abwicklung von Transaktionen und Wertübertragungen zeitlich massiv beschleunigen und Transaktionskosten deutlich senken. Bankinstitute haben diese Gefahr erkannt. In der Initiative R3 haben sich 30 weltweit agierende Banken zusammengefunden, um eine eigene, private Blockchain zu entwickeln und Zahlungen kostengünstig abzuwickeln. Zudem können sie auf Kundenwünsche abgestimmte Anwendungen entwickeln oder sogar ganze Ökosysteme installieren, die eine umfassende Palette an Serviceleistungen aus einer Hand anbieten (Breinich-Schilly 2018). Micropayment Kryptowährungen lassen sich nahezu beliebig stückeln. Zudem sind die Transaktionsgebühren verschwindend gering, da aufgrund der dokumentierten Datenblocks keine zwischengeschalteten Dienstleister beteiligt werden müssen. Deshalb eignen sich Blockchains für das Bezahlen von Kleinstbeträgen – beispielsweise für digitale Güter wie Zeitungsartikel, Apps oder Musiktitel, aber auch für Parktickets, Mautgebühren oder Gebühren für das Laden von Elektroautos. Zugang zu Entwicklungsländer können Zugänge zur Finanzinfrastrukturen Finanzinfrastrukturen erhalten, die auf Basis von Blockchain abgebildet werden. Da die auf Blockchain basierte Währung keine formellen Aufnahmekriterien mehr benötigt, könnte jeder Smartphonebesitzer mit Internetzugang ein Konto in Form einer Wallet eröffnen (Fortsetzung)

246

5  Das digitale Technologierad der nächsten Generation

Tab. 5.10 (Fortsetzung) Blockchain-Anwendungsfelder und Beispiele Musikindustrie Auf Blockchain basierende Musikdienste können öffentliche, dezentrale Einrichtungen ohne klassische Plattenverträge sein, bei der Künstler die Rechte an der eigenen Musik selbst verwalten und die Bedingungen für die Nutzung der Musik festlegen. Dadurch verändert sich das Verhältnis zwischen Fans und Künstler. So könnten Fans ihre Lieblingskünstler unterstützen, am Verbreiten seiner Musik partizipieren und damit Teil des Künstlererfolgs sein. Mit dem Anspruch, eine Dezentralisierung und Demokratisierung der Musikindustrie zu erreichen, ließe sich unter Umständen eine Verbreiterung des Markts und Erschließung einer Vielzahl von Nischen realisieren. Betroffen wären davon Autoren als Urheber, Musikschaffende, Interpreten und Remixer – aber auch Veranstalter, Radiostationen und Musikkonsumenten. Perspektivisch auf der Strecke blieben dagegen Labels in ihrer Rolle als Vertriebsebene und nicht notwendigerweise als Kuratoren, aber auch die heute etablierten Nachfolger der klassischen Musikdistribution wie MP3-­ Vertriebsplattformen oder Streaming-Plattformen (Reinwarth 2016). In diesem Kontext bleibt zu beachten, dass bei sehr vielen Künstlern nach wie vor der Wunsch besteht, bei einem Label zu unterschreiben. Auch sind viele Künstler nicht in der Lage, ein Blockchain-Konzept selbst umzusetzen und brauchen dazu Vertriebspartner. Weiterhin entwickelte sich die Bereitschaft, direkt vom Künstler zu kaufen, aufgrund von Spotify und ähnlich populären Anbietern überschaubar – so hat beispielsweise die nicht unbekannte Künstlerin Imogen Heap das Blockchain-Projekt Ujo für unabhängige Künstler ins Leben gerufen, das im Jahr 2018 lediglich zu dreistelligen Downloads führte (Fliegauf 2017). Wahlsysteme Ein auf Blockchain basierendes Wahlsystem wäre vor Manipulation geschützt. Zudem würde es anonyme und sichere Wahlen ermöglichen. Wähler könnten ihre Stimme von zu Hause oder unterwegs aus abgeben. Fehler beim Auszählen wären ausgeschlossen. Das Unternehmen Everledger hat über 2 Mio. Diamanten via Blockchain Handel von erfasst, um auf diese Weise Diebstahl, Betrug, Fälschung und den Handel Luxusgütern, mit Blutdiamanten bekämpfen zu können. So werden Ursprung und Weg Kunstgegenständen bis ins Geschäft durchgehend nachvollziehbar. Wird ein Diamant oder Lebensmitteln gestohlen, kann der Käufer verifizieren, ob der Verkäufer tatsächlich der Eigentümer ist, um sicherzugehen, dass er keinen Blutdiamanten erwirbt. Dieses Konzept lässt sich auch auf andere Branchen ausweiten – auf den Handel mit Kunstgegenständen, Medikamenten oder Lebensmitteln (Özkardes 2019). Blockchains könnten Konsumenten vollständige Transparenz über die Lieferkette bei Lebensmitteln geben, um Sicherheit und Vertrauen über die Herkunft der Produkte zu schaffen. Ende 2017 hat IBM mit führenden Unternehmen aus der Lebensmittelindustrie wie Walmart, Nestlé, Dole und Unilever ein Blockchain-LieferkettenPilotprojekt initiiert. Die Herausforderung bestand darin, die Daten über Unternehmensgrenzen hinweg so zu speichern, dass sie für Kunden einfach und schnell abrufbar sind. Zukünftig könnten Produkte ihre Lebensgeschichte erzählen – angefangen bei Aufzucht bzw. Anbau, Verarbeitung, Lagerung, Kühlketteneinhaltung über Transport bis hin zum aktuellen Qualitätszustand in der Auslage vor Ort. (Fortsetzung)

5.14 Blockchain

247

Tab. 5.10 (Fortsetzung) Blockchain-Anwendungsfelder und Beispiele Energiewirtschaft Im Energiesektor könnten sich internetbasierte Blockchain-­ Transaktionsplattformen etablieren – ganz ähnlich wie im Finanzsektor bereits über virtuelle Währungen. Dies könnte zu einer massiven Transformation der Energiebranche führen. Lassen sich zahlreiche Insellösungen zusammenführen und aufeinander abstimmen, können in Städten wie in ländlichen Bezirken kleine Minikraftwerke stehen und dezentrale Energieverbraucher ihren eigenen produzierten Strom unabhängig von Energieversorgern via Blockchain vertreiben. Straßenverkehr Blockchain könnte das Ökosystem Straßenverkehr verändern. Carsharing-Anbieter und Autovermieter könnten über ein gesichertes Identitätsmanagement potenzielle Risiken besser abwägen und KFZ-Versicherungen Fragen schneller, effizienter und zuverlässiger beantworten. Der KFZ-Eigentumsnachweis oder die Rekonstruktion der Fahrzeugvergangenheit ließe sich via Blockchain vereinfachen. Weitere Beispiele sind die Ver- und Entriegelung von Fahrzeugen über befristete Zugangsberechtigungen, die Besitzer erteilen können, oder die Verbesserung autonomer Fahrfunktionen – und zwar fälschungssicher und nicht manipulierbar. Gesundheitswesen Das MIT Media Lab entwickelte das Blockchain-Konzept der dezentralisierten Selbstverwaltung von Patientendaten. Dabei wären Patienten in der Lage, ihr Portfolio an Daten und Befunden sowie Berechtigungen eigenständig und ohne Beteiligung von Dritten zu managen – in Analogie wie Bitcoin-Nutzer ihre Guthaben verwalten, ohne dass eine Bank involviert ist. Mit Blick auf ein transparentes Systems, das es Patienten ermöglicht, frei auf die persönlichen medizinischen Daten zuzugreifen und diese zu verwalten sowie zusätzlich ganz bestimmte Daten freiwillig zur Nutzung durch die Industrie freizugeben, präsentierten die Gründer David Suter und Guy Aharonovsky auf der Blockchain-Konferenz Disrupt Berlin 2017 ein Konzept, bei dem Patienten ihre Daten in der Blockchain sicher selbst verwalten und frei darüber entscheiden können, ob sie diese beispielsweise gegen einen monetären Ausgleich an Pharmaunternehmen weitergegeben wollen.

laut Wired noch keine dieser Lösungsoptionen bislang gesichert fest. Ähnlich unmissverständlich äußerte sich der Entwickler und Partner bei Blockchain Capital, Jimmy Song auf dem Blockchain Technology Summit, Consensus 2018: „Blockchain ist keinesfalls diese magische Sache, bei der man Blockchain-Staub einfach über ein Problem streut“ (Griffith 2018). Blockchain: Status quo und Ausblick Für digitale Geschäftsanwendungen ist das Vertrauen in Sicherheit und Verlässlichkeit essenziell. Momentan gibt es noch keine Blockchain, die von allen Marktteilnehmern allgemein akzeptiert und genutzt wird. Aus diesem Grund lässt – ähnlich wie bei anderen Schrittmachertechnologien – der großflächige ökonomisch getriebene Einsatz in der Industrie noch auf sich warten. Aktuell befindet sich Blockchain noch in einem frühen Ent-

248

5  Das digitale Technologierad der nächsten Generation

wicklungsstadium und ist stark zentriert auf Kryptowährungen. Wenngleich einige Kritiker das große Potenzial der nicht ganz unkomplizierten, dezentralen Datenbanktechnologie anzweifeln, bleibt das Interesse an Blockchain dennoch seit Jahren ungebrochen. Leidenschaftliche Blockchain-Befürworter trauen der Technologie perspektivisch zu, das globale Finanzsystem und möglicherweise sogar das Internet, so wie wir es heute kennen, neu zu gestalten. Zunehmendes Vertrauen in Blockchain entsteht durch erfolgreiche Anwendungsbeispiele im Markt. Häufen sich diese, könnte Blockchain den Sprung von der technischen Grundlage der Kryptowährungen in das bestehende Wirtschaftssystem gelingen. Es gilt derzeit als wahrscheinlich, dass die wesentlichen Hürden bis Mitte der 2020er-Jahre durchbrochen sein werden. Kristallisieren sich einige Plattformen he­ raus, in die gebündelte Energie zur Technologieweiterentwicklung fließt und große Volumina gebündelt werden, könnte Blockchain der Sprung zur Schlüsseltechnologie früher gelingen.

5.15 Autonomous Driving Vor nicht allzu langer Zeit wurde das selbstfahrende Auto noch als futuristische Technologie bezeichnet. Sie schien Jahrzehnte weit entfernt. Doch ist es nur noch eine Frage von Jahren, bis die fahrerlose Zukunft ohne Lenkrad oder Gaspedal sich im Markt etablieren wird. Autonomes Fahren hat seinen festen Platz in unseren Zukunftsvisionen. Die Schrittmachertechnologie gilt als einer der  sicheren technologischen  Hoffnungsträger der Zukunft. Vor rund 10 Jahren lag der Fokus der Automobilhersteller noch darauf, die Fahrzeuge in sich zu vernetzen. Heutzutage verbinden sich diese Fahrzeuge mit ihrer Umwelt und kommunizieren mit anderen Fahrzeugen und der verkehrstechnischen Infrastruktur. Sie können sich weitgehend  selbsttätig auf der Autobahn, auf Landstraßen oder in der Stadt steuern, dabei die Spur halten und Hindernissen ausweichen, selbstständig ein- und ausparken, eigenständig überholen und frühzeitig kritische Verkehrsteilnehmer wie zum Beispiel spielende Kinder am Straßenrand oder Fußgänger erkennen.

Neue Herausforderungen sind zu meistern Längst sind moderne Fahrzeuge technisch in der Lage, vollautonom zu fahren. Eine He­ rausforderung liegt nun darin, sichere Fahr- und Reaktionsweisen zu entwickeln, die selbst die besten menschlichen Fahrer um ein Vielfaches übertreffen. Daraus resultierende sinkende Unfallraten und Krankenhausaufenthalte werden erhebliche Folgen für Autowerkstätten, Abschleppunternehmen, Versicherungen und Klinken haben. Eine weitere Herausforderung spielt die Ethik. Wie sollte ein Roboterfahrzeug entscheiden, wenn eine

5.15  Autonomous Driving

249

Kollision unausweichlich erscheint? Nach rechts ausweichen, wo laut maschinellem Sehen ein Rentnerpärchen entlangläuft? Oder nach links ausweichen, wo sich gerade ein Notfallarzt mit einem Obdachlosen unterhält, der soeben einen Schwächeanfall hatte? Oder doch lieber einen frontalen Zusammenstoß in Kauf nehmen und damit das Leben des eigenen Fahrers gefährden? Ein alternatives Szenario könnte sein – mit drei Erwachsenen zu kollidieren oder mit zwei Kindern? Künstlich intelligent gesteuerte Autos werden in solchen Extremsituationen neutraler entscheiden können als wir Menschen. Mit hoher Rechenleistungen werden sie die Wahrscheinlichkeit von Zusammenstößen präzise voraussagen und die Umgebungssituation genau analysieren. Die intelligenten Fahrzeuge werden entscheiden, wer verschont und wer in einen Zusammenstoß verwickelt wird. Doch nach welchen Kriterien? Diese Entscheidung werden Menschen treffen müssen, die die KI-gesteuerten Autos programmieren (Köppe 2018). Wenn Fahrzeuge zu Chauffeuren werden Zukünftig werden wir am Zielort aussteigen und es dem Auto überlassen, selbst einen geeigneten Parkplatz anzusteuern – in einem Parkhaus oder an der Straße. Nach unserem Termin werden wir uns wieder von unserem Auto abholen lassen. Dieses wird mit anderen Fahrzeugen genauso kommunizieren wie mit seiner Infrastruktur und dabei unaufhörlich Daten austauschen mit Fahrzeugen jeglicher Art, Bussen, Straßenbahnen, Zügen, Ampeln, Fahrradfahrern, Fußgängern und vielleicht auch mit multifunktionalen Straßenbelägen. Mitte 2018 berichtete das Manager Magazin, dass in den USA bereits autonome Testfahrten in mehr als 40 Städten stattfanden. Allein der Bundesstaat Kalifornien zählte 56 Erlaubnisinhaber. Allen voran fuhr General Motors mit 104, Apple mit 55, Alphabet mit 51 und Tesla mit 39 autonomen Fahrzeugen. Im Vergleich gab es in Deutschland laut Bundesverkehrsministerium innerstädtische Versuche in Berlin, Hamburg, Dresden, Düsseldorf und Kassel. Zusätzlich wurden digitale Testzonen eingerichtet. Darin können Autokonzerne, Wissenschaftler und Telekommunikationsunternehmen experimentieren – u. a. auf einem Teil der Autobahn A9 zwischen München und Nürnberg. Darüber hinaus haben die deutsche und französische Regierung vereinbart, autonomes Fahren grenzübergreifend zu erforschen (Kyriasoglou 2018). Beachtenswerte Investitionen in Roboterfahrzeug-Start-ups Neben den etablierten Automobilherstellern scheinen Tech-Unternehmen wie Samsung, Apple, Alibaba, Alphabet oder aufstrebende Unternehmen wie Tesla, Uber und Lyft den zunehmenden Wettbewerbsdruck durch das Aufkommen autonomer Personentransporttechnologien zu spüren und treiben in Eile große Akquisitionen in Start-ups voran (Dixon 2018). Die Liste der Beteiligungen und Akquisitionen verlängert sich: • Der japanische Technologiekonzern Softbank stieg Mitte 2018 mit Investitionen von 2,25 Mrd. $ in das Roboterfahrzeugunternehmen Cruise von General Motors ein. General Motors investierte ebenfalls 1,1 Mrd. $ in Cruise. 2019 sollten erste kommerzielle Robotertaxiangebote in den USA starten. Anfang 2020 nannte das Unternehmen noch

250

5  Das digitale Technologierad der nächsten Generation

keinen Starttermin, dafür allerdings ein Fahrzeug ohne Lenkrad und Pedale für die geplante Flotte vorgestellt mit dem Namen  Origin. Da selbstfahrende Taxis möglichst rund um die Uhr unterwegs sein sollen und eine hohe Robustheit aufweisen müssen, soll Origin mehr als eine Million Meilen und damit 1,6 Millionen Kilometer halten. • Der Taxidienst Uber entwickelt seit 2014 zusammen mit der Carnegie Mellon University selbstfahrende Fahrzeuge, die den Fahrer zukünftig ersetzen sollen, um Kosten einzusparen und günstigere Fahrten zu ermöglichen. Im Jahr 2016 erwarb Uber das Start-up Otto, das sich mit der Entwicklung von autonomen LKW befasste, für rund 680  Mio.  $.  Im Sommer 2019 stellt der  Mobilitätsdienstleister zusammen mit dem Pkw-Hersteller Volvo die neueste Generation ihres selbstfahrenden Autos vor: das Roboterfahrzeug auf Basis des Oberklasse-SUVs XC90.  • Der zweitgrößte US-Automobilkonzern Ford investierte 2017 1 Mrd. $ in das Start-up eines ehemaligen Google-Entwicklers, um eine neue Softwareplattform für Roboterfahrzeuge zu entwickeln. Das auf KI spezialisierte Start-up Argo AI plant, erste autonome Fahrzeuge 2021 auf die Straße zu bringen. Neben Ford investierte auch VW im Juli 2019 2,6 Mrd. US$ in das Start-up. Mit dieser Investition soll Argo zu einem globalen Unternehmen ausgebaut werden. • Für 15,3 Mrd. US$ kaufte der Chiphersteller Intel 2017 den nur 600 Mitarbeiter beschäftigenden israelischen Autozulieferer für Fahrerassistenzsysteme im Bereich Kameratechnik, Mobileye, um seine Position in der Zukunftstechnik des autonomen Fahrens zu stärken.  Auf seiner Webseite veröffentlichte  Intel den Slogan:  Autonomes Fahren ist powered by Intel. Gemeinsam mit Mobileye schlägt das Unternehmen ein formales mathematisches Modell vor, das mit dafür sorgen soll, dass ein autonomes Fahrzeug sicher betrieben wird. Deutsche Automobilbauer liegen bei Patenten noch vorn Die deutschen Autobauer verfügen über die meisten Patente für autonomes Fahren – weit vor den japanischen und US-Konkurrenten. Laut Auswertung des Deutschen Patent- und Markenamts DPMA 2018 hielten die deutschen Hersteller 2016 von insgesamt 4810 Patenten für fahrerloses Fahren. Mit einem Anteil von 42 % setzten sich die deutschen Unternehmen an die Spitze der Patentinhaber in diesem Bereich – vor den japanischen Autoherstellern mit 28 % und den amerikanischen mit 11 %. Auch weltweit spielen die Deutschen die Hauptrolle. Laut Studie des Kölner Instituts der deutschen Wirtschaft IW entfielen 52 % aller weltweit angemeldeten Patente auf deutsche Automobilkonzerne  – allen voran Bosch, gefolgt von Audi und Continental. Mit 338 nahm Google weltweit Platz 10 ein (Kranz und Stehle 2018). Olli – der Shuttle-Bus, der sechs Schlüsseltechnologien vereint

Das Start-up Local Motors setzt auf eine Vielzahl miteinander verbundener Schlüsseltechnologien. Um einzigartige, nachhaltige Transporterlebnisse zu schaffen, verzahnte der Shuttle-Bus Olli die Technologien autonome Transportsysteme, Internet der Dinge, kognitive Assistenzsysteme, Big Data Analytics, KI und 3D-Druck miteinander (Abb. 5.20). Der „on demand“ produzierte Bus ließ sich nach Angaben des Start-ups in

5.15  Autonomous Driving

251

Abb. 5.20  Roboter-Shuttle-Bus Olli. (Quelle: Localmotors.com)

ungefähr zehn Stunden ausdrucken. Um zu demonstrieren, dass auch gedruckte Strukturen stabil genug für den Praxiseinsatz waren, ließ der Hersteller sein Fahrzeug bei einem simulierten Verkehrsunfall mit einer Geschwindigkeit von 40  Kilometern pro Stunde frontal gegen eine Wand fahren (Donath 2019). Das selbstfahrende Transportsystem bietet Platz für zwölf Fahrgäste und verfügt über eine Intelligenz auf Basis selbstlernender Algorithmen, die von IBM Watson optimiert werden. Das Shuttle ist zusätzlich mit sog. Cognitive Response Technology ausgestattet, bei der Sensoren und Kameras im gesamten Fahrzeug zum Einsatz kommen, um Hindernisse zu vermeiden. Gute Aussichten für emissionsfreie Mobilität Als wichtiges Element einer klimagerechten Verkehrsgestaltung und Energienutzung verspricht die Elektromobilität eine CO2-freie Fortbewegung. Aus diesem Grund werden viele autonom fahrende Fahrzeuge mit Strom aus erneuerbarer Energie betrieben und autonom fahrende Elektrofahrzeuge wie selbstverständlich unser Straßenbild prägen. Auch Wasserstoffantriebe mit Brennstoffzellen und nachgeschaltetem Elektromotor werden seit Jahren als ernst zu nehmende Alternative diskutiert und pilotiert. Rückblickend haben Elektrofahrzeuge eine lange Historie: Das erste elektrobetriebene vierrädrige Null-­ Emissions-­Kraftfahrzeug zur Personenbeförderung stammt aus dem Jahr 1888. Um 1900 fuhren in New York bereits 50 % Elektroautos, so u. a. auch rund 1000 Elektrotaxis um­ her. Obwohl diese vor mehr als hundert Jahren von Verbrennungsmotoren fast vollständig verdrängt wurden, tauchten Neuentwicklungen im größeren Stil wieder um 1990 auf. Im

252

5  Das digitale Technologierad der nächsten Generation

Jahr 2003 wurde Tesla gegründet; 2010 wurde in Dänemark ein Teil der Elektroautos in intelligenten Energienetzwerken genutzt; 2012 wurden in Deutschland rund 3000 Elek­ trofahrzeuge angemeldet  – das waren 0,1 % aller Neuwagen. Laut ADAC waren Ende 2018 rund 97.000 Elektrofahrzeuge angemeldet und machten damit etwa 2,8 % aller zugelassenen Neuwagen aus. Diese Entwicklung wird laut Fortschrittsbericht 2018 von Nationale Plattform für Elektromobilität NPE bis 2025 weiter zunehmen. Die Analysten erwarteten, dass im Jahr 2025 zwischen 15 und 25 % der weltweiten Neuzulassungen Elektrofahrzeuge sein werden. Dies würde einem Bestand von 2 bis 3 Mio. Elektrofahrzeugen entsprechen und einem Anteil an Elektrofahrzeugen am Gesamtfahrzeugbestand in Deutschland in Höhe von 4 bis 6,5 %. Wie deutsche Automobilhersteller die Schrittmachertechnologie treiben Um fahrerlose Transportsysteme im kommenden Jahrzehnt Realität werden zu lassen, arbeiten alle deutschen Automobilhersteller mit großer Leidenschaft an verbesserten Fähigkeiten im Bereich des maschinellen Sehens (Computer Vision), KI, Robotik und weiteren Schlüsseltechnologien. Denn keiner der renommierten Fahrzeughersteller möchte den Anschluss an die teilweise deutlich fortgeschrittene ausländische Konkurrenz verlieren (Abb. 5.21). • BMW: In einem Interview mit der Welt gab der CEO von BMW, Harald Krüger, 2018 bekannt, dass die neue Generation iNext autonomes Fahren, Vernetzung, Elektrifizierung und Services zu einem innovativen Gesamtkonzept verbinden wird. Das Fahrzeug soll bis zu einer Geschwindigkeit von 130 Kilometer pro Stunde hochautomatisiert auf der Autobahn fahren können. Die Technologie soll das sog. Level 4 beherrschen, sodass

Abb. 5.21  Stufen des autonomen Fahrens. (Quelle: Verband der Automobilindustrie VDA 2015)

5.15  Autonomous Driving

253

Fahrer i. d. R. nicht mehr eingreifen müssen. Und dies noch nicht mal im Stadtverkehr. Krüger machte klar, dass noch nicht feststünde, wo die Fahrzeuge zum Einsatz kommen werden – abhängig von Gesetzen und Rahmenbedingungen. Laut BMW soll iNext eine Reichweite von über 600 Kilometern haben. • Daimler: Zusammen mit Bosch hat Daimler das ambitionierte Vorhaben angekündigt, den bereits sehr weit fortgeschrittenen Mitbewerber Waymo von Alphabet übertreffen zu wollen. Im Jahr 2018 schickte Daimler seine ersten Testfahrzeuge auf die Straße. Anfang der 2020er-Jahre sollten Roboterfahrzeugflotten den regulären Fahrbetrieb aufnehmen. 2019 kündigte Michael Hafner, Leiter automatisiertes Fahren bei Mercedes-­ Ben an, die ersten Robotaxis 2021 bereitzustellen. Neben seiner Kooperation mit Bosch arbeitet Daimler zudem mit dem Konkurrenten BMW zusammen, um gemeinsame Technologien für selbstfahrende Autos zu entwickeln und zur Marktreife zu führen. • Volkswagen: Deutschlands größter Autokonzern plant 2021 in zwei bis fünf Städten mit komplett selbstfahrenden Personentransportern wie dem auf Messen präsentierten Fahrzeugkonzept Sedric zu starten. Zusätzlich setzt Volkswagen auf Kooperationen wie etwa mit dem US-Start-up Aurora oder Ford. Die Konzerntochter Audi forscht ebenfalls seit Jahren am autonomen Fahren. Dessen Oberklasse A8 soll nach Freigabe der Behörden in Staus bis zu einer Geschwindigkeit von 60 Kilometern pro Stunde komplett autonom fahren. Ab 2020 will Audi hochautomatisiertes Fahren in Serie anbieten – im ersten Schritt noch mit Überwachung durch menschliche Fahrer.

Die Google-Schwester Waymo scheint allen anderen wegzufahren Das 2009 gegründete Unternehmen Waymo ist das erste Unternehmen, das Kunden autonome Taxis ganz ohne Fahrer bestellen lässt. Ende 2018 startete Waymo den kommerziellen Robotertaxidienst Waymo One in einem Vorort von Phoenix im US-Bundesstaat Arizona, bei dem die selbstfahrenden Taxen bezahlende Passagiere an ihre Ziele fahren. Die Fahrzeuge lassen sich per App bestellen. Anfangs sitzt noch ein Sicherheitsfahrer am Steuer, der bei Bedarf die Kontrolle übernehmen kann. Das Technologieunternehmen, das in der Branche als führend bei der Roboterfahrzeugentwicklung gilt, verfügte 2019 laut Branchenkennern über zwei bis drei Jahre Vorsprung vor den anderen Wettbewerbern. Es fokussiert sich auf die KI-gestützte Weiterentwicklung von Software im Zusammenspiel mit dazu benötigten Sensorsystemen. Die Fahrzeuge, die Waymo zu Roboterautos umbaut, kaufte die Alphabet-Tochter von Fiat Chrysler sowie Jaguar. Die Flotte der Google-Schwester soll bis 2020 auf 82.000 Roboterfahrzeuge anwachsen. Dazu wurden Verträge geschlossen, die 20.000 umgebaute elektrische Jaguar 1-Pace und 62.000 Chrysler Pacifica vorsehen. Das Unternehmen setzte auf Partnerschaften mit dem Fahrdienst Lyft, dem Chiphersteller Intel und dem Mietwagenbetreiber Avis. Risikokapitalgeber hat Waymo bislang keine. Google und später die Google-Mutter Alphabet sollen bislang mehrere Milliarden Dollar in die Roboterautoaktivitäten investiert haben (Eckl-Dorna 2019). Sehr wahrscheinlich wird Waymo künftig als weltweit erstes Unternehmen Fahrzeuge auf die Straßen schicken, bei denen kein Sicherheitsfahrer mehr an Bord ist. Im ersten Schritt sollen die Robotertaxis in der Nähe der

254

5  Das digitale Technologierad der nächsten Generation

Zentralen von Waymo und Google in Mountain View und Palo Alto als fahrerlose Shuttles unterwegs sein. Dabei spielt KI eine herausragende Rolle. Die Taxiflotte sammelt kontinuierlich große Datenmengen ein, mit denen das Kundenverhalten analysiert und der Service sowie die Sicherheit verbessert werden. Zu den 14  Mio.  Kilometern, die Waymo-Fahrzeuge bis Ende 2018 auf echten Straßen gefahren sind, kommen knapp 13 Mio. Kilometer, die Robovans in der virtuellen Parallelwelt mit Digital Twins zurücklegen: Und zwar täglich. So werden die auf dem Asphalt gesammelten Erfahrungen noch mal virtuell multipliziert. Darüber hinaus können selbstlernende Rechner an Bord der Autos Umleitungsstrecken bei temporären Baustellen planen oder im Stau selbsttätig eine Rettungsgasse für Einsatzfahrzeuge bilden (Conrad 2019). Eine weitere Geschäftsmodellsäule will Waymo durch den Verkauf der selbstentwickelten Hardware monetarisieren und seine Lidar-Technologie an ausgewählte Kunden verkaufen, um eine möglichst hohe Auslastung der eigenen Produktionsanlagen sicherzustellen. Analysten der Investmentbank UBS sagten voraus, dass sich das Unternehmen mit Sitz im kalifornischen Mountain View in den 2020er-Jahren den größten Teil des Markts sichern wird – und zwar 60 % bis 2030. Bis dahin sollen die Umsätze der Branche weltweit 2,8 Bio. US$ betragen (Kyriasoglou 2018). Vom Roboterchauffeur zum Roboterservice Laut Waymo-Berater Larry Burns werden wir in Zukunft längerfristige Verträge mit Flottenanbietern von autonomen Fahrzeugen schließen. Diese werden uns ein Fahrzeug zur Verfügung stellen, das uns an der Haustür abholt und am Ziel wieder absetzt. Anschließend wird es sich eigenständig einen Parkplatz suchen und solange warten, bis wir es wieder benötigen. Alternativ wird es die Zeit nutzen können, um beispielsweise zu tanken, für eine Reparatur in eine Werkstatt zu fahren oder Eltern, Lebenspartner oder Kinder abholen und sie zur Arbeit oder zum Sport bringen. Auch können wir das Fahrzeug zur Reinigung schicken, um Anzüge abzuholen oder das Abendessen aus einem Restaurant. Sobald wir uns selbst von der Arbeit nach Hause chauffieren lassen, wartet das Essen bereits auf dem Rücksitz. Somit kann das Auto den ganzen Tag für uns selbst, für unsere Familie oder Freunde unterwegs sein. Dennoch behalten wir immer die Kontrolle darüber. Solche Anwendungsfälle beschreiben Komponenten eines personalisierten Roboterservices (Asendorp 2019).

5.16 Drones, Urban Air Mobility Als unbemannte Multicopter mit Motoren und horizontalen Propellern ausgestattet, weisen Dronen ähnliche Flugeigenschaften wie Hubschrauber auf. Die Anzahl der Propeller benennt den Drohnentyp: Tricopter stehen für Flugfahrzeuge mit drei, Quadrocopter mit vier, Hexacopter mit sechs und Octocopter mit acht Motoren und Propeller. Aufgrund ihrer zusätzlichen Propeller können die meisten Octocopter eine Spiegelreflexkamera tragen und dort zum Einsatz kommen, wo besonders hochauflösende Fotos oder Videos erforder-

5.16  Drones, Urban Air Mobility

255

lich sind. Zusätzlich verfügen kommerzielle Drohnen über hochauflösende Multifunktionskameras mit Weitwinkellinsen, um Aufnahmen speichern und übertragen zu können.

Breites Einsatzspektrum Neben dem militärischen Einsatz von Drohnen finden sich inzwischen viele zivile kommerzielle Anwendungsfelder – angefangen bei Paketauslieferungen über Überwachungsaufgaben bis hin zu Anwendungen, die Routinetätigkeiten erleichtern. Die Einsatzgebiete der Schrittmachertechnologie vervielfältigen sich – bereits 2014 waren über 40 kommerzielle Anwendungsfelder bekannt - einige davon zeigt Tab. 5.11 - denn aus der Vogelper­ Tab. 5.11  Beispielhafte Anwendungsfelder ziviler Drohnentechnologie  Branche Luftverkehr, See- und Bergrettung, Polizei und Feuerwehr

Anwendungsbeispiele ziviler Drohnentechnologie Am Flughafen lassen sich Drohnen bei Kontrollen von Start-, Landeund Rollflächen oder bei der Wartung von Flugzeugen einsetzen. Seewege können Drohnen schneller und günstiger erkunden als Rettungsschiffe. Sie können Rettungsringe oder selbstaufblasende Gegenstände über Unglücksorten abwerfen, wo Sekunden über Leben und Tod entscheiden. Dabei kann auch KI eine Rolle spiele – einige KI-Softwares sind in der Lage, im Meer befindliche Objekte wie Haie oder Personen mit 90 % Genauigkeit zu erkennen. Menschen hingegen gelingt eine korrekte Einstufung nur in 16 % der Fälle (Brandstötter 2018). Von Lawinen verschüttete Personen unterstützen Lawinenbergungsdrohnen mit Infrarotkameras, indem diese Hitzesignale im Schnee aufspüren und die Aufenthaltsorte an Rettungskräfte vor Ort melden. Im Jahr 2018 stellte der Automobilhersteller Land Rover das Project Hero in Kooperation mit dem österreichischen Roten Kreuz vor. Das umgebaute Spezialfahrzeug des Modells Discovery kommuniziert mit einer achtrotorigen Such- und Rettungsdrohne, die eine Hochleistungswärmebildkamera besitzt. Die Drohne lässt sich bereits während der Fahrzeugfahrt starten und auf dem Fahrzeugdach landen. Sie kann hilfebedürftige Personen aus über 400 Metern Entfernung erkennen. Spezielle, hitzebeständige Drohnen sind in der Lage, bei Bränden und Katastrophen in Gebäude hineinzufliegen, um in Not geratene Menschen aufzuspüren und deren Aufenthaltsort an Rettungsteams weiterzuleiten. Zu Aufklärungs- und Ermittlungszwecken werden Polizeidrohnen im Bereich Verbrechensüberwachung und -verfolgung eingesetzt. (Fortsetzung)

256

5  Das digitale Technologierad der nächsten Generation

Tab. 5.11 (Fortsetzung) Branche Distributionslogistik inklusive Essenszustellung und Medizintransport

Forst- und Landwirtschaft

Anwendungsbeispiele ziviler Drohnentechnologie Der autonome Drohneneinsatz macht es möglich, Dienstleistungen auf fortschrittlichere Weise zu erbringen, Kostenvorteile zu realisieren und dem Kundenwunsch nach kürzerer Zustellungszeit nachzukommen. Bei einer Umfrage von Walter Sands Communications im Jahr 2018 entschieden sich 79 % der befragten Internetnutzer in den USA für Drohnen als Zustelloption. Das zur Google-Mutter Alphabet zählende Drohnentechnologieunternehmen Wing sah sich 2019 mit Vorwürfen der Lärmbelästigung durch Drohnentests in Australien konfrontiert, da sich Anwohner von dem teilweise enormen Geräuschpegel gestört fühlten. Die gleichen Anwohner konnten allerdings auch – solange sie innerhalb eines Lieferradius von zehn Kilometern wohnten – von einer Essenzustellung per Drohne innerhalb weniger Minuten profitieren. Dabei seilte das Fluggerät den Essensbehälter mit der fertigen Mahlzeit vollautonom aus einer Höhe von sieben Metern ab. Wing wirbt mit einer Emissionsbelastung von nur 27 % im Vergleich zu einer konventionellen Zustellung über den Landweg. Das Amazon-Pendant Prime Air ist eine Logistikdrohnenflotte, die bereits 2016 Waren nur 13 Minuten nach einer digitalen Auftragserteilung zustellen konnte. Im Jahr 2018 kündigte die Taxialternative Uber an, dass Uber Eats in naher Zukunft Essenzustellungen via Drohnen realisieren wird. Einen anderen Anwendungsfall zeigte das Start-up Zipline, das Blutkonserven via Drohne mit 130 Kilometern pro Stunde in kürzester Zeit in entlegene Gebiete bringen und so Leben retten kann. Dabei warf die Drohne seine sensible Fracht aus dem Transportbehälter mithilfe eines Fallschirms ab. Drohnentechnik hilft nicht nur dabei, Schafe oder Kühe zu zählen, Wildschweine aufzuspüren oder Agrarflächen individueller und präziser zu bewirtschaften. Auch kann sie bei der Aufforstung von Wäldern oder beim Präzisionsweinbau helfen. Über Drohnen lassen sich Pflanzen kontrolliert bestäuben und Düngemittel für bestimmte Flächen individuell aussteuern, um landwirtschaftliches Arbeiten schneller, genauer und effizienter zu realisieren. Im Jahr 2018 setzten 25 % der Landwirte mit Betrieben von über 100 Hektar und 9 % der Landwirte insgesamt auf Drohnentechnologie. Laut Umfrage vom Deutschen Bauernverband (DBV) nutzen 33 % die Drohnentechnik zur Vermeidung von Wildschäden, 32 % um den Zustand von Pflanzen und Böden exakter zu bestimmen, 31 % um Pflanzenbestände zu schützen oder Nützlinge auszubringen, 22 % um ihre Erträge zu kartieren und 18 % um Bestandskontrollen durchzuführen (Feuerborn 2019). (Fortsetzung)

5.16  Drones, Urban Air Mobility

257

Tab. 5.11 (Fortsetzung) Branche Energie

Bau- und Straßenbau

Film, Fernsehen und Fotografie

Anwendungsbeispiele ziviler Drohnentechnologie Drohneneinsätze ermöglichen die Inspektion von Hochspannungsleitungen, Windkraftanlagen oder Fotovoltaikanlagen. Bei der Überwachung der Energieversorgung vermindern sie Abschaltzeiten und Risiken für Wartungspersonal bei schlechter Witterung. Der österreichische Stromnetzbetreiber Austrian Power Grid setzte 2018 autonome Drohnen zur Stromnetzwartung und -instandhaltung ein und schickte hochauflösende Bilder an die Leitstellen zur Begutachtung. Im Winter sind Drohnen in der Lage, Windkraftanlagen unkompliziert, sicher und schnell zu enteisen. Zudem helfen sie, Störungen effizient zu beseitigen, Risse zu erkennen und längere Ausfallzeiten zu reduzieren. Ein weiteres Anwendungsfeld zeigt die Energiediagnose bei Gebäuden unter Einsatz von Thermo- oder Infrarotkameras. Drohnen können Industrieanlagen oder technische Bauwerke begutachten und bei der Bewertung von Baufortschritten behilflich sein. Sie unterstützen die Baustellenüberwachung oder den Transport bestimmter Materialen auf der Baustelle. Dabei erfolgt der Drohneneinsatz insbesondere, um Situationen auszugleichen, in denen der direkte Eingriff von Menschen mit übermäßigen Risiken verbunden oder aus ökonomischer bzw. logistischer Sicht unangemessen erscheint. Beim 2018 veröffentlichten Forschungsprojekt der University of Leeds waren mit Kameras bestückte Drohnen in der Lage, Schlaglöcher auf Straßen zu erkennen und autark zu reparieren. Nachdem die Drohne den Boden scannte, flog sie über ein Schlagloch, schüttete mithilfe einer Abziehvorrichtung Teer in das Loch und strich den Teer anschließend glatt. In der Film- und Fernsehindustrie werden Drohnen seit Langem eingesetzt. Zukünftig könnten Drohnen dabei unterstützen, Filmfiguren realitätsnah zu animieren und spektakuläre oder technisch besonders aufwendige Filmszenen mit Drohnen aufzunehmen, um dutzende Kameras zu ersetzen. Auch bei der kommerziellen Fotografie finden Drohnen seit Jahren Anwendung. So können Aufnahmen entstehen, die ohne Drohnen nicht realisierbar wären. Hierunter fallen beispielsweise Landschaftaufnahmen und Bilder von oben oder Videos, bei denen die Drohne beweglichen Objekten folgt.

258

5  Das digitale Technologierad der nächsten Generation

spektive oder über den Luftweg lassen sich viele Dinge besser erkennen, beobachten und ausführen, als es vom Boden aus möglich ist. Rahmenbedingungen zum Einsatz von Drohnentechnologie Drohnen können sowohl autonome als auch von Menschen gesteuerte Flugobjekte sein. Werden sie zur Freizeitgestaltung oder Sportzwecken verwendet, gelten die Regelungen wie bei Flugmodellen. Erfolgt der Einsatz von Drohnen kommerziell oder gewerblich, handelt es sich um unbemannte Luftfahrtsysteme. Drohnenpiloten mit einer Startmasse von mehr als zwei Kilogramm müssen in Deutschland ihre technischen und rechtlichen Kenntnisse seit 2017 in Form eines Drohnenführerscheins nachweisen, wenn der Start nicht auf anerkannten Modellflugplätzen erfolgt. Zudem ist seit 2005 für unbemannte Drohnen eine Lufthaftpflicht-Versicherung verpflichtend – dies gilt sowohl für private als auch gewerbliche Einsatzzwecke. Für private Drohnen mit einem Gewicht bis zu fünf Kilogramm schreibt die Deutsche Flugsicherung eine maximale Flughöhe von 30 Metern, für Gewerbetreibende mit Fluggeräten bis zu 25 Kilogramm, maximal 50 Meter Höhe vor. Seit 2017 dürfen Flugdrohnen in Deutschland mit über fünf Kilogramm Gesamtgewicht auch außerhalb der Sichtweite des Piloten betrieben werden. Das bedeutet, dass die Flugsysteme autonom zum Zielort hin- und wieder zurückfliegen dürfen. Diese Verordnung ebnete den Weg für einen breiteren Einsatz von Drohnen bei Lieferdiensten und in der Landwirtschaft. Herausforderungen bei ansteigender Drohnennutzung Die ökonomische Bedeutung von Drohnen geht schon seit Jahren über private Freizeitzwecke hinaus. Im Jahr 2017 schätzte die Deutsche Flugsicherung DFS, dass bis zum Jahr 2020 die Anzahl der in Deutschland verkauften Drohnen auf über eine Million steigern wird. Eine solche Zunahme macht ein Umdenken erforderlich. Steigt die Anzahl von Drohnen, bleibt der Luftraum zwar unverändert. Allerdings steigt das Risiko durch mögliche Kollisionen oder Verletzte. Zudem führen Kollisionen mit unbemannten Fluggeräten nicht nur zu finanziellen Einbußen. Sie bergen auch rechtliche Risiken. Wer bezahlt beispielsweise den Schaden, wenn zwei Drohnen zusammenstoßen und abstürzen? Was passiert im Fall, dass Drohnen gehackt werden? Wie lassen sich zunehmende Geräuschpegel reduzieren? Solche Fragen bedürfen neuer Lösungsansätze. Entwicklung des globalen Drohnenmarkts In ihrer 2017 veröffentlichten Studie bezifferten die Kollegen von PwC das Marktpotenzial für Drohnen und drohnenbasierten Dienstleitungen in allen Industrien weltweit auf rund 127 Mrd US$ im Jahr 2020. Davon fielen 45 Mrd. US$ auf die Überwachung von Infrastrukturen und Gebäuden, Pipelines, Industrieanlagen und Kraftwerken. Auf dem zweiten Platz rangierte mit 32 Mrd. US$ die Agrarindustrie mit Precision Farming, das fortlaufend Detailaufnahmen von Feldern oder Weinbergen erstellt und anschließend mit speziellen Programmen analysiert. Auf Grundlage der erhobenen Daten können Landwirte die Bearbeitung ihrer Böden optimieren, etwa indem sie ausgewählte Bereiche ihrer Felder gezielter und effizienter düngen. Auch China geht von einem rasant schnellen Wachstum aus. Das chinesische Ministerium für Industrie und Informationstechnologie prognos-

5.16  Drones, Urban Air Mobility

259

tizierte 2018, dass der chinesische kommerzielle Drohnenmarkt bis zum Jahr 2020 auf über 9,3 Mrd. und bis zum Jahr 2025 auf 28,1 Mrd. US$ ansteigen wird. In ihrer 2019 vorgelegten Studie zum deutschen Drohnenmarkt, gingen der Bundesverband der deutschen Luftverkehrswirtschaft (BDL) und der Bundesverband der Deutschen Luft- und Raumfahrtindustrie (BDLI) von etwa 500.000 fliegenden Drohnen in Deutschland aus. Davon wurden rund 19.000 Drohnen für kommerzielle Zwecke genutzt. Mit einem Volumen von 574 Mio. € lag der deutsche Drohnenmarkt international im Mittelfeld – rund 70 % fielen auf kommerzielle Drohnenanwendungen. Im Ranking der größten kommerziellen Drohnenmärkte belegt Deutschland mit rund 400  Drohnenunternehmen und etwa 10.000 Beschäftigten nach den USA, China und Frankreich den vierten Platz. Die Verbände schätzten, dass sich die Zahl der einsatzbereiten Drohnen in Deutschland bis 2030 auf rund 850.000 erhöhen wird. Zudem prognostizierten die Analysten ein abflachendes Wachstum im Bereich der privaten Nutzung und ein weiteres Wachstum der kommerziell genutzten Drohnen auf bis zu 126.000 Drohnen. Wurde 2019 nur eine von 24 Drohnen kommerziell betrieben, wird es 2030 voraussichtlich eine von sechs Drohnen sein. Ausblick Drohneneinsatz Wie bei allen Schrittmachertechnologien arbeiten die Entwickler unter Hochdruck und mit Leidenschaft daran, technologische Unzulänglichkeiten zu beseitigen und die Leistungsfähigkeit zu verbessern. Es ist davon auszugehen, dass zukünftige Drohnen mit innovativen Propellertechnik leiser als heute fliegen werden und die Lärmbelästigung reduzieren. Im März 2018 waren auf der Start-up-Plattform AngelList bereits über 780 Drohnen-Start-ups mit einer durchschnittlichen Bewertung von 5,1 Mio. US$ aufgeführt. Bei der Warenzustellung könnten Drohnen zukünftig in Großstädten, in denen die Flugstrecken durch eine Reihe von Hindernissen erschwert werden, Konkurrenz durch Zustellroboter bekommen. Seit 2017 prüft die Metro Group den Einsatz von Lieferrobotern mit dem System von Starship Technologies. Der Zustellroboter hat eine Reichweite von fünf Kilometern und kann bis zu zehn Kilogramm transportieren. Öffnen können den Transportbehälter nur die Kunde selbst – über die Eingabe einer PIN (Reder 2017). Zukünftig wird insbesondere KI im Drohnenmarkt eine wichtige Rolle spielen. So stellte der Weltmarktführer für Grafikprozessoren, Nvidia, 2017 sein Modul Jetson TX1 und seine AI-Plattform Jetson TX2 vor, die es im Zusammenspiel erlauben, KI-Funktionen in Drohnen, Roboter und intelligente Transportfahrzeuge einzubetten. Dabei fanden nur bestimmte Berechnungen auf dem Chip selbst statt – der Rest wurde in Cloud-Services ausgelagert. Urban Air Mobility – der Traum von Flugtaxis wird schrittweise Wirklichkeit In ihrer 2019 veröffentlichten Studie prognostizierten die Kollegen von Horváth, dass 2025 die ersten autonom fliegenden Flugtaxis in den großen Metropolen zu einem gängigen Verkehrsmittel werden könnten. In der Initialphase werden sich aller Voraussicht nach die autonom fliegenden elektrischen Luftfahrzeuge in Megacities ab 10 Mio. Einwohnern etablieren – wenn 2030 rund 60 % der Weltbevölkerung in urbanen Regionen und Megacities leben werden. Um 2035 könnte Personenbeförderung mit weltweit 23.000 Flugtaxis zur endkundenreifen Dienstleistung werden. Und bis 2050 könnte es 3  Mio.  Flugtaxis weltweit geben, die Menschen auch in kleineren Großstädten befördern. Vermutlich wird

260

5  Das digitale Technologierad der nächsten Generation

sich der größte Anteil der Umsätze im Bereich Flugvermittlung und Zusatzservices generieren lassen. Wann und in welchen Regionen die autonomen Flugkapseln zuerst unterwegs sein werden, hängt laut Studienautoren von der Häufigkeit von Staus ab. Je herausfordernder sich die Verkehrssituation auf den Straßen entwickelt, desto eher würden Menschen in die Luft ausweichen. Hinzu kommen Einflussfaktoren wie lokale Transportkosten, politische Stabilität und die Offenheit gegenüber technologischen Innovationen. Dessen ungeachtet prognostizierten die Kollegen von Roland Berger, dass 2030 etwa 12.000 und im Jahr 2050 rund 100.000 Flugtaxis durch die Luft schweben könnten. Die Analysten sahen die autonomen Luftbeförderungssysteme v. a. in den USA und Südostasien. Für beide Unternehmen waren Flugtaxieinsätze auch in deutschen Groß- und Mittelstädten vorstellbar. Schlüsselspieler bei Urban Air Mobility (UAM) sind nicht nur die großen etablierten Tech-Unternehmen wie Microsoft, Intel, Tencent, Uber oder Flugzeughersteller wie Airbus und Boeing bzw. Automobilhersteller wie Daimler und Audi, sondern auch eine Reihe von mit beachtenswertem Risikokapital ausgestatteten Start-ups (Abb. 5.22).

Abb. 5.22  Übersicht Flugtaxis: CityAirbus (Airbus), PAV (Boeing), Volcocopter 2X (Volcocopter), Lililum Jet (Lilium), Uber Air (Uber), Ehang 184 (Ehang)

5.16  Drones, Urban Air Mobility

261

• Airbus: Der Luftfahrtkonzern hat Urban Air Mobility zu einem Schwerpunkt seiner konzernweiten Entwicklungsarbeit gemacht. Hinter dem elektrischen Luftfahrzeug CityAirbus verbergen sich acht Rotoren, sodass dieses senkrecht starten und landen und dabei vier Passagiere befördern kann. Anfang 2019 war das Flugtaxi noch ein Demonstrator. Die Testergebnisse flossen in die Entwicklung eines Prototyps ein, der einem späteren Serienflugzeug ähnlich sein soll. Nach ersten erfolgreichen bodennahen Starts, will Airbus sein Flugtaxi 2020 ausgiebig in der Nähe von Ingolstadt testen. • Boeing: Das Flugzeugunternehmen Passenger testete Anfang 2019 erstmals sein autonomes Passenger Air Vehicle (PAV) im US-Staat Virginia. Laut technischem Direktor Greg Hyslop dauerte die Entwicklung vom Konzeptdesign bis zum ersten Flug des senkrechtstartenden Prototyps ein Jahr. Das elektrisch betriebene Gefährt mit acht Propellern und vier Tragflächen soll eine Reichweite von 80 Kilometer aufweisen. Parallel zum Flugtaxi für Personen entwickelt Boeing derzeit ein Cargo Air Vehicle (CAV) für den Warentransport bis zu 227 Kilogramm. • Volocopter: Das 2012 gegründete Start-up aus Stuttgart sieht sich selbst als „Software-­ Company mit Carbon-Teil“. Mit inzwischen 31,2 Mio. € Risikokapital ausgestattet – u.  a. von Daimler und Intel  – möchte das Unternehmen mit seinem autonomen Zweisitzer-­Taxicopter 2020 erste autonome Testflüge in Singapur absolvieren. Bereits 2016 hatte das Unternehmen eine vorläufige Verkehrszulassung von der deutschen Luftfahrtbehörde erhalten. Auch der Frankfurter Flughafen bereitete sich auf Starts und Landungen von Flugtaxis vor. Am größten deutschen Flughafen prüfte der Betreiber Fraport gemeinsam mit Volocopter, wie sich das drohnenähnliche Verkehrsmittel in den Flughafenbetrieb integrieren lässt. • Lilium: Mit großen Sprüngen entwickelte sich das Münchener Start-up Lilium, das inzwischen über 90 Mio. US$ Risikokapital eingesammelt hat – u. a. vom chinesischen Tech-Konzern Tencent und Frank Thelen. Der Lilium Jet wird von 36 vollelektrischen Jetmotoren angetrieben. Mit diesen kann der Jet senkrecht starten und landen. Das minimalistische Flugzeugdesign kommt ohne Heck, Seitenruder, Propeller, Getriebe und mit nur einem beweglichen Teil im Motor aus. Mit seinem ersten Testflug seines vertikal startenden und landenden autonomen Zweisitzers Lilium Jet, sorgte das Startup bereits 2017 für Aufmerksamkeit. Im Jahr 2019 stellte es seinen neuen Flugtaxiprototypen vor, der fünf Personen transportieren kann. Das vollelektrische Flugtaxi soll sich zukünftig ähnlich schnell wie ein Formel-1-Fahrzeug mit 300  Kilometer pro Stunde schnell fortbewegen und eine Reichweite von bis zu 300 Kilometern erzielen. Dabei fällt der der Geräuschpegel im Betrieb laut Unternehmensangaben geringer als bei einem Motorrad aus. Laut Spiegel war Lilium Anfang 2020 dabei, frisches Investorengeld einzuwerben. Die Rede war von weiteren 400 bis 500 Millionen US-Dollar. • Uber Air: Bereits 2016 kündigte der Vermittlungsdienst Uber an, an selbstfliegenden Taxis zu arbeiten. Die auf „vertical take-off and landing“ (VTOL) setzenden Maschinen sollen eine Reichweite von 100 Kilometern haben und Platz für zwei bis vier Passagiere bieten. Mit über 70 Partnern beabsichtigte Uber zusätzlich zum elektrischen Flugtaxi und Sharing-Konzept auch Ladestationen und Infrastrukturen zu integrieren – wie Landepads

262

5  Das digitale Technologierad der nächsten Generation

und Ports, an denen Passagiere ein-, aus- und umchecken können. Bereits 2023 sollen die ersten Uber-Air-Flugtaxis in den Städten Los Angeles, Dallas und Frisco starten. • Ehang: Das chinesische Unternehmen stellte seinen autonom fliegenden Transportcopter Ehang 184 für den Personentransport auf der CES 2016 vor. Die achtrotorige Drohne mit einem Eigengewicht von 200 Kilogramm transportierte bis zu 230 Kilogramm Nutzlast und erreichte eine Fluggeschwindigkeit von 130 Kilometer pro Stunde. Sie soll zukünftig als autonomes Zweisitzerlufttaxi eingesetzt werden, um Passagiere über eine Distanz von 16 Kilometern innerhalb der Akkulaufzeit von 23 Minuten oberhalb der Stadt zu befördern.  Laut Ehang-Chef Derrick Xiong soll die  11-Millionen-­ Metropole Guangzhou die erste Stadt weltweit werden, in der regelmäßige Passagierflüge mt autonomen Flugtaxis stattfinden. Dabei soll der Marktstart weniger von der Technik als von der Überarbeitung gesetzlicher Vorgaben abhängen. Nach über 2000 absolvierten Testflügen bei unterschiedlichen Wetterbedingungen versichert Xiong gegenüber dem Spiegel, dass sich das neue zweisitzige Modell Ehang 216 mit 16 Elek­ tromotoren und ebensovielen Propellern bisher als besonders sicher erwiesen habe. Von den 16 Motoren könnten sogar sieben ausfallen, ohne dass es gefährlich werde. Aus diesem Grund soll der Pilotbetrieb mit bis zu vier festen Flugstrecken bereits 2020 erfolgen. Darüber hinaus soll in naher Zukunft ein Kontrollzentrum in Guangzhou entstehen, das die Flüge der autonomen Flugtaxis über der Stadt koordiniert und überwacht.

5.17 Health Tech Gesundheitstechnologien stehen für digitale Gesundheitslösungen in Kombination mit Technologien wie zum Beispiel Biotechnologie, Big-Data-Verfahren oder KI zur Bereitstellung von Geräten, Verfahren und Systemen, die zur Vorbeugung und Lösung von Gesundheitsbeeinträchtigungen und einer Erhöhung der Lebensqualität beitragen. Im Fokus der aus Software- und Hardwareprodukte und digitalen Anwendungen stehen modernste Lösungen, die Diagnose, Vorsorge, Therapie, Pflege und Rehabilitation von Menschen verbessern.

Gesundheitstechnologien auf Basis von künstlicher Intelligenz Auch auf dem Gebiet der Gesundheitstechnologien spielt die Supertechnologie KI eine Schlüsselrolle. Die Kollegen von Accenture prognostizierten 2018, dass KI-basierte Gesundheitsanwendungen bis 2026 jährliche Einsparungen in Höhe von 150 Mrd $ für die

5.17  Health Tech

263

Gesundheitswirtschaft bringen könnten. Insbesondere Versicherungsunternehmen und Risikokapitalgeber investierten in den vergangenen Jahren massiv in intelligente ­Gesundheitstechnologien. Ein Beispiel zeigt sich im 250-Millionen-Dollar-schweren Risikokapitalfonds von UnitedHealth Group Optum, der KI-Gesundheitslösungen  wie z. B. Buoy Health – eine KI-Symptomberatung für Gesundheitsassistenten etablieren soll. Start-ups im Bereich AI Health wachsen exponentiell und werden bis 2021 voraussichtlich ein durchschnittliches jährliches Wachstum von 40 % erzielen. Bislang sind die erfolgreichsten KI-basierten Anwendungsfelder bei Health Tech robotergestützte Chirurgie, virtuelle Pflegehelfer und administrative Workflow-Assistenten oder Computer Vision bei der Bildanalyse. 2019 waren bereits eine Reihe vertikal ausgerichteter KI-Systeme schneller und machten weniger Fehler als ihre menschlichen Kollegen. Solche KI-Systeme helfen  Ärzten dabei, die Qualität von Diagnosen und Thera­ pieentscheidungen zu verbessern. Zukünftige Health-Tech-Lösungen könnten unter Hinzunahme von KI-Algorithmen und Big Data dazu führen, dass ein Großteil des aktuellen medizinischen Wissens in jeder Arztpraxis oder jeder Klinik verfügbar ist. Damit könn en sich Ärzte insbesondere bei komplexen oder komplizierten Fällen eine künstlich intelligente Zweitmeinung einholen und ihre Entscheidung absichern. Das KI-Diagnosesystem Deep Patient Der Forscher Joel Dudleyan hat am Mount-Sinai-Klinikum in New York das einzigartige selbstlernende KI-Gesundheitssystem Deep Patient entwickelt. Ausgestattet mit Gesundheitsakten von über 700.000 Patienten, hat sich Deep Patient selbst beigebracht, Risikofaktoren bei 78 verschiedene Krankheiten vorherzusagen. Deep Patient war im Mittel sogar besser als Ärzte darin, verschiedene Krankheiten früh zu erkennen (Reintjes 2017). Noch kann Deep Patient, nachdem es bei einem Patienten eine Krankheit diagnostiziert hat, keine für Ärzte verständliche Begründung abgeben, auf welchen Merkmalen in den Daten seine Diagnose beruht, da es sich um ein neuronales Netzwerk handelt. Aus diesem Grund versucht Dudley genauer zu entschlüsseln, wie die intelligente Software Krankheiten erkennt. Denn ohne nachvollziehbare Erklärungen fällt es Medizinern schwer, den Diagnosen des Systems ohne Skepsis zu begegnen. Zwar würden wir von unseren Mitmenschen nicht unbedingt erwarten, dass diese uns ihre Denkprozesse erklären, weil wir ihnen inuitiv vertrauen. Dieses intuitive Vertrauen haben wir bei künstliche Maschinen allerdings noch nicht. Folglich arbeiten Menschen mit Hochdruck neben der Weiterentwicklung der KI-Algorithmen parallel an Forschung auf dem Gebiet „Explainable AI“ – denn zu jedem Algorithmus gehört ein Modell oder eine Dokumentation, mit dem sich sein Denksystem für uns Mensch nachvollziehen lässt (Chen 2019). Telemedizin ergänzt und ersetzt Vor-Ort-Sprechstunden Telemedizinische Lösungen unterstützen die medizinische Versorgung und Betreuung von Patienten mithilfe von moderner Kommunikations- und Informationstechnik. Solche telemedizinische Sprechstunden über PC-Monitor, Laptop, Tablet oder Smartphones finden seit Jahren  bei einigen ambulanten Praxen statt. Asthma- oder Herzpatienten können

264

5  Das digitale Technologierad der nächsten Generation

sich  via Telemedizin in Modellprojekten mit ausgewählten Klinikärzten in Verbindung setzen. Seitdem der Deutsche Ärztetag 2018 den Weg für eine umfassende ­fernmedizinische Betreuung freigemacht hat, könnte Telemedizin in Deutschland zunehmend genutzt werden. Zum Vergleich:  Der führende Anbieter von virtuellen Versorgungslösungen in den USA, Teladoc Health, verzeichnete 2018 bereits über zwei Millionen virtuelle Arztbesuche und damit doppelt so viele wie noch zwei Jahre zuvor. Digitale Gesundheitsakte vor ihrem Durchbruch? In Deutschland liegen Patientendaten in internen Systemen vor – entweder in Krankenhausinformationssystemen oder in Praxisverwaltungssystemen von niedergelassenen Ärzten. Durch die fehlende Synchronisation von Patientendaten zwischen verschiedenen medizinischen Einrichtungen obliegt Patienten die Rolle als Informationsübermittler. Einerseits müssen sie möglichst lückenlos über ihre u. U. jahrelange, bisherige Krankenhistorie berichten können, andererseits aber auch medizinisches Fachpersonal hinsichtlich bestehender Vorerkrankungen, Medikation, Unverträglichkeiten aufklären. In einigen Fällen werden Dokumente wie Arztbriefe oder Ergebnisse aus bildgebenden Verfahren den Patienten persönlich mitgegeben. Dadurch tragen Patienten selbst ein hohes Maß an Verantwortung für einen optimalen Behandlungsverlauf und dessen Dauer. Die seit 2004 diskutierte elektronische Patientenakte sollte eine Verbesserung herbeiführen. Seit vielen Jahren steht sie auf der Agenda in deutschen Krankenhäusern und Pflegeeinrichtungen mit Blick auf Digitalisierung des Gesundheitswesens. Der aktuelle Plan: Bis 2020 sollen ein Großteil der Ärzte, Psychotherapeuten, Krankenhäuser und der anderen Akteure des Gesundheitswesens an die künftige Telematikinfrastruktur angebunden sein. Laut Gesetz soll die moderne Akte den Notfalldatensatz, den Medikationsplan, Arztbriefe und weitere medizinische Dokumente, wie etwa den elektronischen Impfpass, aufnehmen (Bachmann 2018). Aufgrund der langwierigen Entwicklungsprozesse, fehlenden Spezifikationen und fehlenden gesetzliche Rahmenbedingungen sahen sich eine Reihe von Akteuren dazu veranlasst, eigene Lösungen zu entwickeln. Im Jahr 2019 verprobten sie ihre digitalen Lösungen, mit denen, angeschlossene Patienten künftig lebenslang die eigenen Gesundheitsdaten und medizinische Dokumente verwalten können sollen. In Kooperation mit 90 gesetzlichen Krankenkassen und vier privaten Krankenversicherungen wurde die digitale Gesundheitsakte mit integrierter Gesundheitsassistentin Vivy als App eingeführt. Auch die Techniker Krankenkasse (TK) brachte ihre App TK Safe als Beta-Version auf den Markt. Die zusammen mit IBM entwickelte Digitallösung ermöglicht es den Versicherten, alle der TK vorliegenden Gesundheitsdaten über ihr Smartphone in ihre persönliche Akte zu laden. Wachstumsmarkt Mobile Health Laut Statista wurden im Jahr 2016 in Summe rund 3,2 Mrd. mHealth-Applikationen he­ runtergeladen. Das Marktforschungsinstitut prognostizierte zudem einen weltweiten Absatz von Fitnesstrackern von rund 52  Mio.  Exemplaren bis zum Jahr 2022. Nie gab es

5.17  Health Tech

265

mehr Fitness-Tracker auf der Welt als heute. Viele Hersteller haben bereits die dritte oder vierte Version ihrer Gesundheitsarmbänder auf den Markt gebracht. Zukünftig werden sich immer mehr Patienten telemedizinisch via Smartphone-App behandeln lassen. Auch Global Player wie IBM, Microsoft, Apple oder Google haben erkannt, dass sich mit mobilen Gesundheitsangeboten neue Geschäftsfelder erschließen lassen. Mobile Health stellt somit einen der am schnellsten wachsenden Felder bei Gesundheitstechnologien dar. Das Ärzteblatt sieht einige Einsatzfelder, bei denen ein gezielter, professioneller Einsatz von Apps im Gesundheitswesen sinnvoll erscheint (Bork et al. 2018): • Entwicklung und Zertifizierung von mobilen Gesundheits-Apps beispielsweise für Menschen mit Bluthochdruck, Diabetes oder Herzschwäche • Digitale Gesundheitsassistenten mit Hilfestellungen im prä- und poststationären Verlauf • Anbindung von chronisch erkrankten Patienten beispielsweise unter Zuhilfenahme von Wearables und Telemonitoring in ihrer häuslichen Umgebung • Verknüpfung der Daten des Krankenhausinformationssystems mit elektronischen Gesundheitsakten • Onlinesprechstunde und Onlinekonsultation – auch um eine Zweitmeinung einzuholen – insbesondere in Fachbereichen, bei denen eine körperliche Untersuchung nicht zwingend notwendig ist • Digitale Terminvergabe und Koordination von Untersuchungsterminen via App

Personalisierte Präzisionsmedizin Individualisierte Präzisionsmedizin gilt als die Medizin der Zukunft. Befreit von biologischer Variabilität und Unsicherheit versorgt sie Patienten ohne Fehler mit Diagnostik und Therapie  – so die Vision. Über datenbasierte Verfahren sollen Patienten schneller und wirksamer mit einer präziseren Diagnose und für sie geeigneten individuellen Therapie rechnen können – einschließlich einer fortlaufenden Anpassung der Therapie an den Gesundungsfortschritt. Die Präzisionsmedizin beansprucht für sich, Wissen für alle nutzbar machen, um maßgeschneiderte Prävention, Diagnose und Therapie zu ermöglichen. Laut vfa wurden 2019 bereits über 66 Arzneimittel in Deutschland personalisiert eingesetzt – allerdings handelt es sich dabei noch nicht um einmalige, „unique“ Produkte, die auf die jeweiligen Echtzeitdaten von Patienten zugeschnitten sind. Zukünftig werden solche personalisierten Produkte mithilfe von Big-Data-Analyse maßgeschneidert erstellt werden können – u. U. sogar für jeden Menschen in anderer Zusammensetzung. Da jeder Mensch einzigartig ist, beeinflussen personenbezogene Daten wie Erbgut, Epigenetik, Lebensstil, Umwelteinflüsse, Geschlecht, Alter oder physische Konstitution die Gesundheit und mögliche Krankheitsverläufe. Die neue Form der Medikation berücksichtigt über diagnostische Tests, ob ein bestimmtes Medikament voraussichtlich wirksam ist, ob das Medikament voraussichtlich ohne Nebenwirkungen vertragen wird und welche Dosierung zum besseren Resultat führt.

266

5  Das digitale Technologierad der nächsten Generation

Funktionskleidung auf Basis von Biodesign Das MIT Design Lab erforscht zusammen mit dem Sportartikelhersteller Puma seit 2017 Sportshirts, Laufschuhe und weitere anpassungsfähige Biodesignkleidungsstücke. Dabei forschen die Wissenschaftlicher u. a. an „breathing shoes“ – Sportschuhen, die atmen und dabei ihre eigenen Luftwege zur individuellen Belüftung entwickeln  – mit lernfähigen Einlagesohlen, die Müdigkeit verringern und die Leistungsfähigkeit von Läufern durch Echtzeit-Biofeedback erhöhen sollen. Im Fokus steht Biodesign und die Nutzung lebender Materialien wie Bakterien oder Algen. Die Forscher werten die Strukturveränderungen der lebenden Zellen digital aus mit dem Ziel, dass Sportler ihre Aktivitäten optimal anpassen können. Bionische Implantate und Prothesen Bionik befasst sich mit der Übertragung von Naturphänomenen auf Technologien. Sie nimmt die Natur als Vorbild und versucht diese nachzuahmen. Fallen Teile des menschlichen Körpers aus oder werden sie beschädigt, müssen sie nach Möglichkeit ersetzt werden. Im Bereich Implantate und Prothetik – also künstliche Ersatzteile für Gliedmaßen, Organe oder Organteile  – verweist die Fraunhofer-Gesellschaft auf beachtliche Fortschritte. So lässt sich Zahnersatz inzwischen computergesteuert maßfertigen oder verloren gegangene Sehkraft über eine Hornhaut aus Kunststoff wiederherstellen. Künstlich hergestellte Gliedmaßen erreichen in der heutigen Zeit eine außergewöhnlich hohe Funktionalität. Und bioresorbierbare Materialien werden nach ihrer vorgesehenen Nutzzeit planmäßig vom Körper aufgelöst (Fraunhofer 2019). Auf der Leitmesse MEDICA 2019 wurden bionische Handprothesen vorgestellt, die sich Kraft der Gedanken steuern lassen, um ganz normale Alltagsaufgaben wieder selbstständig meistern zu können. Neuste Generationen ermöglichen es Menschen, mit den Prothesen viele Bewegungen ähnlich wie mit der gesunden menschlichen Hand durchzuführen. Zwar ist die Technologie noch nicht ganz in der Lage, alle mechanisch möglichen Funktionen von Händen zu steuern, da die Schnittstellen zwischen Mensch und Prothese in ihrer Übertragung noch  limitiert sind. Allerdings zeigte das Forschungsteam um Konstantin Bergmeister und Oskar Aszmann an der MedUni Wien in ihrer mehrjährigen Studie, dass es durch die Anwendung von Nerventransfers zu bisher unbekannten neurophysiologischen Effekten kommt. Die Mediziner setzten während der Amputation chirurgische Nerventransfers ein, um die Gesamtanzahl von Muskelsteuersignalen zu erhöhen. Sie verzichteten auf den Einsatz von Elektroden, um die Prothesen steuern zu können, sondern transplantierten Muskelgewebe aus dem Oberschenkel sowie Nerven anderer Körperteile in die Arme. Auf diese Weise wurden amputierte periphere Nerven mit verbliebenen Muskeln neu verbunden. Nach einigen Monaten waren die betroffenen Patienten in der Lage, ihre Prothese besser zu steuern. Somit könnte die Vision intuitiv steuerbarer Prothesen, die alle Funktionen einer Hand ersetzen kann, bereits in den kommenden Jahren Realität werden. Zukunftsmarkt Langlebigkeit – Biotechnologie setzt auf künstliche Intelligenz und Big Data Im Jahr 2006 prognostizierte der Zukunftsforscher Ray Kurzweil, dass die Menschen infolge einer bevorstehenden genetischen Revolution direkt und zielgerichtet in ihr Erbgut

5.17  Health Tech

267

eingreifen werden und dieses verändern können. Auf diese Weise würde es etwa möglich, das Altern der Zellen zu verlangsamen oder gar aufzuhalten (Kurzweil 2006). Etwa zehn Jahr später nehmen Medien wie Time oder Wired Deutschland diese Gedanken auf – unter reißerischen Titeln wie „Tod dem Tod“ und befeuerten damit den Trend über den bisherigen Menschen hinaus (Benedikter 2016). Den Alterungsprozess zu verlangsamen und ein gesundes Leben bis ins hohe Alter ermöglichen – das sind Ziele der Anti-Aging-Medizin. Einige Start-ups gehen noch einen Schritt weiter: Wenn zukünftig verstanden wird, warum genau wir altern und wie wir Alterungsprozesse verlangsamen können  – wäre es dann vielleicht auch möglich, den Alterungsprozess ganz zu stoppen und danach vielleicht sogar rückgängig zu machen? Diesen Fragen geht Googles Schwesterunternehmen Calico seit 2012 nach. Das zwischenzeitlich mit 1,5 Mrd. Risikokapital ausgestattete Unternehmen arbeitet mit hochrenommierten Altersforschern aus der Medizin, Molekularbiologie, Genetik und Informatik daran, Produkte auf den Markt zu bringen, die tatsächliche Lebensverlängerung bewirken können. Dabei setzt Calico auf Big Data und wertet systematisch große Datenmengen aus. Neben Calico gibt es weltweit mehr als 25 weitere Anti-Aging-Start-ups mit beachtlichen Risikokapitalzuflüssen, wie Human Longevity aus USA (300 Mio. $), das die Medizinpraxis mithilfe von Big Data und maschinellem Lernen revolutionieren möchte, Celularity aus USA (290 Mio. $), das neuartige Therapien für Autoimmun- und degenerative Erkrankungen entwickelt, Blue Rock Therapeutics aus Kanada (225 Mio. $), das auf Zelltherapie setzt, um beschädigte oder dysfunktionale Zellen zu ersetzen und kritische natürliche Funktionen im Körper wiederherzustellen, oder das Start-up United Biotechnology aus USA (210 Mio. $), das Produkte entwickelt, die Alterungskrankheiten verhindern, stoppen oder umkehren sollen und zusätzlich die Gesundheitsspanne – die Zeit, in der Menschen bei guter Gesundheit leben – verlängern. Biodruck – die Vision von künstlich hergestellten Ersatzorganen Wird 3D-Druck mit der Biologie verbunden mit dem Ziel, lebende Materialien auszudrucken, sprechen wir von Biodruck. Mit seinem Forschungsteam entwickelte Professor Gabor Forgacs in seinem Unternehmen Organovo bereits 2009 den weltweit ersten 3D-­ Biodrucker. Wenige Jahre später druckte der visionäre Bioingenieur als Erster eine komplette menschliche Ader. Im Jahr 2012 ging der Forscher davon aus, dass 2020 menschliche Organe aus menschlichen Zellen künstlich und individuell gedruckt und reproduziert werden können – zunächst im Rahmen einer Testumgebung für neue Medikamente und Therapien – und später direkt implementierbare, lebende und personalisierbare Ersatzorgane für den Einsatz in menschlichen Körpern. Im gleichen Jahr entwickelten Wissenschaftler an der University of California eine Methode zur Erzeugung von kleinsten Strukturen innerhalb von wenigen Sekunden. Der Druck von Mikrostrukturen in ein biokompatibles Hydrogel sollte bei den Versuchen der künstlichen Erzeugung von Gewebe, Organen, Blutgefäßen oder Leder behilflich sein. Im Jahr 2013 druckte Organovo künstliche Leberzellen via Biodruck aus, die 40 Tage im Labor überlebten und beim Versuch, die Zellen zu Gewebestrukturen zusammenzuführen fünf Tage. Forgacs sprach 2015 auf dem Ideacity-Kongress von enormen Fortschritten bei der Biofabrikation. Hier zeigten sich die Forscher in der Lage, nunmehr Organbestandteile

268

5  Das digitale Technologierad der nächsten Generation

und ganze Organe wie Haut, Ohren oder Knochen herzustellen  – bis hin zum direkten Verdrucken lebender Zellen. Statt beispielsweise in großen Tanks Bier zu brauen oder Joghurt herzustellen, ließen sich in ähnlich großen Tanks künftig sich selbst multiplizierende Zellen herstellen. Er prognostizierte, dass wir zukünftig natürliches Fleisch und Naturleder skalierbar herstellen werden können, ohne dafür ein einziges Leben der 60 Mrd. Tiere in Anspruch zu nehmen. Dazu gründete der Forscher ein weiteres Unternehmen, Modern Meadow, das Zoa herstellt – eine biologisch hergestellte, ethische und umweltfreundliche Lederalternative, die auf Rinderkollagen basiert. Forgacs zeigte sich davon überzeugt, dass wir Menschen eines Tages das Drucken komplexer Organe wie Leber, Lunge oder Herz erleben werden und damit unser Lebensalter verlängern können. Im Jahr 2016 veröffentlichte Organovo erste Ergebnisse im Rahmen einer vorklinischen Studie zu implantiertem gedruckten Lebergewebe, das an die Leber von Mäusen anwuchs und über Wochen lang funktionierte. In gleichen Bereich forscht ein weiterer Visionär, Professor Anthony Atala, am Wake Forest Institute for Regenerative Medicine in den USA seit Jahren daran, Organe möglichst 1:1 durch gedruckte Implantate ersetzen zu können und damit u. a. das Problem der fehlenden Spenderorgane lösen zu können. Bereits 2006 setzte Atala einem jungen Patienten eine im Labor gezüchtete Harnblase ein. Während diese noch vergleichsweise einfach strukturiert ist, arbeitet der Gewebeforscher seit Jahren an komplexeren Organen wie Leber oder Niere. Dabei sind seine Biodrucker so aufgebaut, dass sie feinste Gefäße herstellen können. Sogenannte Mikrodrüsen sind in der Lage, Gefäße, die 80-mal feiner sind als ein menschliches Haar, auszudrucken (Haas 2018). Im Jahr 2019 zeigten sich die meisten Organe noch nicht für Transplantationen geeignet, da viele davon über äußerst komplexe Mikroarchitekturen verfügen und klinische Studien noch keine Unbedenklichkeit attestieren. So wird Biodruck noch hauptsächlich zur Herstellung von anspruchsvollen biologischen Gewebestrukturen eingesetzt mit dem Ziel, kranke Gewebestrukturen bei Patienten irgendwann zu ersetzen oder zu regenerieren. Weitere Anwendungsgebiete finden sich in relativ kleinen physiologisch relevanten Gewebezüchtungen im Bereich der Arzneimittelentwicklung und Krankheitsmodellierung. Hier wird individuelles Biomaterial gedruckt, an dem Ärzte die Wirksamkeit und Wirkungsweise von Medikamenten testen können. Die Vorteile sind enorm: Einerseits sinken die Risiken von Unverträglichkeiten, andererseits lassen sich individuelle Dosierungen erproben. Im Ergebnis profitieren Patienten von einer effizienteren, schonenderen und wirksameren Behandlung (Carl 2018). Bisher ist es Atala gelungen, Haut, Muskeln und Knochen zu drucken und erfolgreich in Tiere einzupflanzen. Auch transplantierte er bereits erfolgreich Nieren aus dem Drucker in Ratten. Dabei dauerte der Druckvorgang weniger als sieben Stunden. Im Jahr 2018 formulierte Atala seine größte Herausforderung: „Zellen während des Druckvorgangs am Leben zu halten und die komplexe Struktur der Organe präzise nachzubilden“. Sollte sich Biodruck künftig zu einer Schlüsseltechnologie weiterentwickeln, werden sich nicht nur Organe ersetzen lassen. Auch werden Nachwuchsärzte an realistischen Organkopien üben können, bevor sie an einem echten Körper Hand anlegen und zu einer höheren Behandlungsqualität und Sicherheit von Patienten beitragen.

5.18  Neuro Tech

269

5.18 Neuro Tech Nach der manuellen Interaktion via Tastatur oder Maus, der Gesten- und Sprachsteuerung, stellt die Gedankensteuerung die nächste technologische Evolutionsstufe dar. Dabei dient unser Gehirn als Schnittstelle für die Kommunikation zwischen unserem menschlichen Bewusstsein, unseren Denkprozessen und informationstechnischen Kommunikationssystemen. Um diese komplexe Welt wirkungsvoll zu durchdringen, bedarf es einer Vielzahl interdisziplinärer Disziplinen wie Medizin, Biologie, Gehirnforschung, kognitive Psychologie und Physiologie sowie KI, Big Data und Robotik. Die bei der Schrittmachertechnologie Neuro Tech eingesetzten Gehirn-Computer-Schnittstellen lassen sich zur sog. erweiterten Intelligenz („augmented intelligence“) zählen. Im Fokus stehen verbesserte Gedächtnisleistungen, umfangreicheres Wissen und eine größere Rechenkapazität unseres Gehirns.

Mehrstufiger Prozess der Gehirn-Computer-Kommunikation Die Gehirn-Computer-Schnittstelle ist die direkteste Form der Kommunikation zwischen Mensch und Maschine und die einzige, die nicht auf Muskelkraft angewiesen ist. Eine solche Schnittstelle besteht aus mehreren Elementen: Wenn Nervenzellen im Gehirn mithilfe von biochemischen Botenstoffen und elektrischen Signalen zusammenwirken, entstehen Gedanken. Diese beeinflussen die Aktivitätsmuster unseres Gehirns – und damit auch Gehirnwellen, die wir über Elektroden-Headsets messen können. Im ersten Schritt registriert das Headset die schwachen Signale, die von der elektrischen Gedankenaktivität der Nervenzellen im Gehirn nach außen dringen. Im zweiten Schritt analysiert ein Computer die Daten und überträgt die Kommandos an eine Anwendung, die mit diesen Signalen gesteuert werden soll. Dabei kann die Software in ein Smartphone, ein Robotikgerät, eine Heizung oder einen Startknopf im Auto eingebettet sein. Im letzten Schritt erhalten Anwender auf Wunsch eine Rückmeldung darüber, was der Computer aus den eingehenden Signalen verstanden oder ausgeführt hat (Lenzen 2016) Zeitreise Erforschung der Gedankensteuerung Vor fast 100 Jahren entwickelte der Neurologe Hans Berger das Verfahren der Elektroenzephalografie (EEG) und zeichnete 1924 als erster Mensch Gehirnaktivitäten auf. Seitdem werden die elektrischen Gehirnaktivitäten und Denkprozesse durch Aufzeichnung der

270

5  Das digitale Technologierad der nächsten Generation

Spannungsschwankungen an der Kopfoberfläche gemessen und ausgewertet. Im Jahr 1970 startete die University of California mit Forschungen an einer Gehirn-Computer-­ Schnittstelle. Seitdem arbeiten Wissenschaftler daran, die Gehirnwellen als Schnittstelle zu nutzen. Professor Nils Birbaumer wies 1999 nach, dass komplett gelähmte Patienten, die nicht mehr in der Lage waren zu sprechen oder sich zu bewegen, allein über die Veränderung ihrer Hirnströme einzelne Buchstaben auf einem Bildschirm auswählen konnten und im nächsten Schritt einen ganzen Brief schreiben konnten. Wissenschaftler des Innovationslabors AutoNOMOS an der FU Berlin im Rahmen des Projekts Brain Driver waren 2011 in der Lage, einen VW Passat präzise um Kurven steuern und das Fahrzeug via Gedankensteuerung zu beschleunigen und abzubremsen. Im Jahr 2012 zeigte Del Milan in seinem Forschungslabor in Lausanne, wie ein Rollstuhl ausschließlich über die Kraft von Gedanken gesteuert werden konnte. Im gleichen Jahr konnten Wissenschaftler der Universitäten in Genf, Berkley und Oxford bei Informatikstudenten Informationen wie Bankdaten und Adressen aus Gehirnströmen auslesen, ohne mit den Studenten zu sprechen. Informatiker der University of Essex Probanden ließen 2013 nur durch „Kraft“ ihrer Gedanken ein virtuelles Raumschiff steuern. Im gleichen Jahr steuerten Rhesusaffen in den USA erstmals mithilfe einer Schnittstelle zwischen Hirn und Computer zeitgleich zwei rein virtuelle Arme per Gedanken. Ziel des Forschungsprojekts war es, Patienten perspektivisch die Chance zu geben, künstliche Gliedmaßen ebenso mithilfe von Gedanken steuern zu können wie gesunde. Fast zwanzig Jahre nach seiner viel beachteten erfolgreichen Implantation im Jahr 1998 – als der visionäre Neurologe Philip Kennedy erstmalig einen Chip in einen Menschen einpflanzte und der gelähmte Patient anschließend in der Lage war, eine Bildschirmtastatur Kraft seiner Gedanken zu bedienen – wurde „der Vater des Cyborg“ 2016 selbst zum Forschungsobjekt. Im Alter von 67 Jahren ließ er sich für 30.000 $ eine Eigenentwicklung eines Gehirn-Computer-Interface samt Spule und Sender ins Gehirn implantieren, nachdem er keine Chance auf eine erlaubte Weiterentwicklung in den USA gesehen hatte. Allerdings blieb der gewünschte Erfolg aus. Zwar konnte Kennedy ein paar Tage nach der Operation wieder sprechen. Auch seine Fähigkeit zu schreiben kam zurück, doch nach drei Monaten musste Kennedy notoperiert werden: sein Kopf hatte sich entzündet. Die Spule und der Sender wurden entfernt, der Chip nicht. Zu tief war dieser in der Zwischenzeit mit dem Gehirn verwachsen. Ihn zu entfernen, wäre zu riskant gewesen. Seitdem trägt der Forscher seinen Chip im Gehirn. Ebenfalls im Jahr 2016 meldeten sich zum ersten internationalen bionischen Kräftemessen insgesamt 74 Athleten in 59 Teams aus 25 Ländern zum ersten Cyberathlon an. Beim sog.  BCI-Race wurden die Gehirnaktivitäten der Akteure gemessen und in ­Steuersignale umgewandelt. Die Athleten waren angehalten, einen Hindernisparcours zu bestreiten und dabei eine animierte Computerfigur möglichst schnell ins Ziel zu bringen.

5.18  Neuro Tech

271

Die Figur wurde auf bestimmten Feldern über Gehirnsignale beschleunigt oder zum Springen gebracht. Dachten die Cyberathleten gezielt daran, wie sie Hände oder Füße bewegten, wie sie sangen oder Kopfrechneten, wandelt eine Computersoftware die freigesetzten Gehirnströme in entsprechende Steuerungssignale um. Wurden falsche Signale gesendet, führte dies zum Ausbremsen der Computerfigur (Kolisch 2016). Deutschlands erster Professor für klinische Neurotechnologie, Surjo Soekadar, konnte vor seiner Berufung 2018 mit seinem Team zeigen, dass regelmäßiges Training mithilfe von sog.  neural-gesteuerten Handexoskeletten in Form von elektromechanischen Stützstrukturen gelähmte Menschen wieder in die Lage versetzt, ihre Hand mithilfe der Hirn-Maschine-Schnittstelle zu bewegen. Dazu bekamen die Patienten eine Kappe aufgesetzt, um ihre Hirnströme abzuleiten und zu verstärken. Die Daten wurden via WLAN oder Bluetooth an ein Smartphone oder Tablet übertragen, das die Hirnströme analysierte und anschließend Impulse an das Exoskelett an der Hand sendete. Auf diese Weise konnten die Betroffenen ihre gelähmten Finger wieder bewegen und Alltagsgegenstände sicher greifen. Darüber hinaus führte die Technologie sogar dazu, dass die Patienten auch ohne Exoskelett wieder besser zugreifen konnten, denn durch das Training mit der Maschine bildeten sich neue neuronale Verbindungen im Gehirn und Rückenmark. Im Optimalfall sind die neuen Verbindungen sogar so gut, dass die Patienten die Technologie nicht mehr brauchen. So kann die Technologie die Funktion des Nervensystems gezielt verändern (Schumann 2018).

272

5  Das digitale Technologierad der nächsten Generation

Quellen: Pixabay ID: 4347273 / autonomos.inf.fu-berlin.de / Pixabay ID: 1845962 / Pixabay ID: 4234824 / neuroelectrics.com / technologyreview.com / Duncan.Hull – own work (wikipedia.org) / engineering.cmu.edu

5.18  Neuro Tech

273

Aktueller Forschungstand der Neurotechnologie Heute reicht es noch nicht aus, sich einen Text vorzustellen, um Computer dazu zu bringen, diesen als Text zu verfassen und an eine bestimmte Person zu versenden. Nach Gernot Müller-Putz, Leiter des Labors für Gehirn-Computer-Schnittstellen an der Technischen Universität Graz, sind die Signale, die ein EEG-Headset derzeit auffangen kann, noch zu unklar. Er vergleicht diese mit einem schlecht eingestellten Radiosender. Um in diesem Signalrauschen relevante Informationen ausfindig zu machen, setzen Forscher auf komplexe Mathematik und Unterstützung der Anwender, die mit ihrer Gehirnaktivität klare, eindeutige Signale produzieren müssen, sodass Computer sie sicher unterscheiden und interpretieren können. Um unterscheidbare Signale zu senden, können sich Anwender, anstelle sich ein Ja vorzustellen, die rechte Hand zur Faust zu ballen und bei einem Nein den linken Fuß auf- und abbewegen, denn Hände und Füße sind in unterschiedlichen Hirnregionen repräsentiert und produzieren nach Müller-Putz deutlich besser unterscheidbare Daten. So trainieren Anwender, wie sie eine prägnante, stabile Vorstellung entwickeln, die die Gehirn-Computer-Schnittstelle so häufig wie möglich richtig erkennt. Ob dies gelungen ist oder ob sie es noch einmal versuchen müssen, ergibt sich aus dem Feedback des Systems (Lenzen 2016). Menschen und Computer lernen, sich aufeinander einzustellen, und daneben lernen auch die Computersysteme hinzu. Mit speziellen KI-Musterer­ kennungsprogrammen werden sie darauf trainiert, die Besonderheiten verschiedener Gehirnsignale ihrer Anwender immer treffsicherer zu interpretieren. Auch die Interfaces entwickeln sich weiter Laut BNCI-Network setzten 2017 lediglich 6 % der Unternehmen, die sich mit Brain-­ Computer-­Inferfaces befassten, auf Implantate, die erheblich rauschärmere Signale erzeugen. Allerdings können diese Modelle derzeit noch zu gesundheitlichen Risiken wie Infektionen oder Abstoßungsreaktionen des Körpers führen. Der Rest nutzte die konventionellen EEG-Kopfhauben. Weiterhin arbeiten eine Reihe von Unternehmen seit Jahren daran, die auffällige Kopfhaube durch filigranere, elegant um den Kopf liegende Elektroden-­Headsets zu ersetzen. Daher ist es gut vorstellbar, dass künftige BCI-Generationen unauffälliger Headsets in ein paar Jahren ähnlich im Trend liegen könnten, wie die heutigen Bluetooth-­ Kopfhörer für das Smartphone. Neurotechnologien der Zukunft Mit Gehirn-Computer-Schnittstellen werden wir zukünftig die Grenzen unseres Körpers überschreiten. Die Möglichkeit, unsere Gedanken durch Computer auslesen zu lassen und Maschinen durch Gedanken zu steuern, wird zukünftig ein besonders weitreichender Entwurf einer umfassenden Vernetzung und Verbindung des Internets mit dem menschlichen Lebensalltag sein. Neben den enormen Chancen, die dadurch geschaffen werden, wirft eine solche Technologieentwicklung eine Reihe von Fragen auf: Wie lassen sich die im Gehirn produzierten Daten schützen? Wer ist dafür verantwortlich, wenn ein per Gedanken gesteuertes System einen Unfall verursacht? Wie kann ein Mensch nachweisen, dass er zwar das Richtige dachte, sein Computer ihn allerdings falsch verstand?

274

5  Das digitale Technologierad der nächsten Generation

Eine der ersten Nutznießer der fortgeschrittenen Neurotechnologie könnte die Spieleindustrie sein, die zu fast 100 % auf digitale Inhalte eingestellt sein wird. Via Gedankensteuerung werden Funktionen im Spielkontext eingeblendet und ausgeführt. Es finden Interaktionen mit Gegenständen statt. Ist ein Spieler unter- oder überfordert, passt sich das Spiel automatisch an, indem es Schwierigkeitsgrade so lange erhöht oder absenkt, bis der Spieler kognitiv optimal gefordert wird und die größtmögliche Spielfreude erlebt. Es scheint wohl nur noch eine Frage der Zeit zu sein, bis unser menschliches Gehirn mit technischen Endgeräten wie Nachfolgegenerationen heutiger Smartphones oder Spielkonsolen verbunden sein wird. Ab diesem Zeitpunkt müssen keine Tasten mehr gedrückt oder Anweisungen ausgesprochen werden. Sobald wir daran denken, passiert es bereits. Und irgendwann wird es wohlmöglich auch zu einem Mind-Upload in Anlehnung an Ray Kurzweil kommen  – der digitalen Speicherung von Gehirninhalten und Emulation des menschlichen Gehirns in einem digitalen System, das jegliche Informationen viel schneller als das biologische Original verarbeiten kann.

5.19 Nano Tech, Nanobots Nanotechnologien beschäftigen sich mit der Erforschung und Konstruktion kleinster Partikel und Strukturen. Sie beziehen sich auf Moleküle bis zu einer Strukturgröße von maximal 100 Nanometer. Dabei entspricht ein Nanometer einem Millionstel Millimeter. Im Vergleich zu einem Meter verhält sich ein Nanometer wie der Durchmesser einer Haselnuss zum Durchmesser der Erde. Nanotechnologien vereinen zahlreiche Prinzipien aus der Quantenphysik, den Materialwissenschaften, der Elektronik, Informatik und Chemie sowie der Mikro-, Molekular- und Zellbiologie (Badenschier 2016). Laut Bundesministerium für Bildung und Forschung BMBF beschäftigten 2015 über 1000  Nanotechnolo­ gieunternehmen in Deutschland mehr als 50.000 Arbeitnehmer. Beispiele für Nanotechnologieprodukte finden sich bei magnetischen Arbeitsspeichern in Computern, sog.  NRAM, die kleiner und leistungsstärker sind als klassische Arbeitsspeicher, bei Nanowerkstoffen wie schmutzabweisenden Autooberflächen, flexibel biegsamen Displays, extrem verdichteten Zahnfüllungsmaterialien, Solarzellen oder Batterien mit längeren Laufzeiten sowie auf dem Gebiet künstlicher Organe.

Nanotechnologievorbilder in der Natur und Gesetzmäßigkeiten Die Miniaturtechnologie orientiert sich an in der Natur existierenden Phänomenen. Fliegenbeine sind z. B. mit nanometergroßen Haaren ausgestatten, die der Grund dafür sind, dass diese Insektengattung an Decken und Wänden laufen kann. Der sog. Lotuseffekt be-

5.19  Nano Tech, Nanobots

275

schreibt feine Nanostrukturen, die dafür sorgen, dass Wasser auf den Blättern der Lotusblume abperlt oder die Haftung von Schmutzpartikeln minimal ist. Beim Kalk in Muschelschalen sind die Stoffe im Nanobereich so eng aneinandergereiht, dass diese extrem stabil und widerstandsfähig sind – ein sehr ähnlicher Effekt existiert auch im menschlichen Knochen. Unterhalb der Grenze von rund 50 Nanometern gelten nicht mehr die klassischen physikalischen Gesetzmäßigkeiten. Vielmehr verhalten sich die Miniaturstoffe, je kleiner sie werden, zunehmend nach quantenphysikalischen Naturgesetzen. Auch werden unterhalb von 100 Nanometern die Oberflächeneigenschaften von Substanzen immer wichtiger. Denn die Atome der Oberfläche einer Substanz reagieren chemisch und physikalisch mit der Umgebung und anderen Materialien. So können künstliche oder natürliche Nanoteilchen auch als Katalysatoren wirken (Bundesregierung 2019). Optimierung des Menschen Seit vielen Jahren verfolgt die US National Science Foundation eine Initiative, die Nanotechnologie auf der einen Seite mit Biotechnologie, Informationstechnik und Kognitionswissenschaften sowie auf der anderen Seite mit KI, Kybernetik und Robotik kombiniert. Im Fokus steht dabei die menschliche Optimierung („human enhancement“) und die Steigerung der gesellschaftlichen Leistungsfähigkeit, um die gegenwärtigen Beschränkungen des menschlichen Körpers vorübergehend oder dauerhaft zu überwinden. In ihren Veröffentlichungen sprechen die Autoren von verbesserter Arbeitseffizienz, gesteigerter L ­ ernfähigkeit, schärferen Sinnen, erhöhten kognitiven Fähigkeiten, höherer Kreativität, Hirn-zu-Hirn-Kommunikation, Hirn-Maschine-Schnittstellen und Neuro-Morphing (Scholz 2015). Die Vision medizinischer Nanobots ist keine mehr Nanotransportsysteme befinden sich seit Jahren in der Forschung und Entwicklung, um perspektivisch Medikamente zielgenau durch den Körper zu schleusen und an bestimmten Stellen freizusetzen. Und zwar dort, wo sie wirken sollen. Die sog. Nanobots tragen in ihrem Inneren eine molekulare Fracht, beispielsweise Signalmoleküle, die Krankheitskeime beseitigen, Körperzellen oder Erreger zur Verhaltensänderung bewegen und irgendwann auch beschädigte Gene reparieren sollen. Im Jahr 2016 ist es dem Nanorobotiker Dr. Shawn Douglas am Wyss Institute der Harvard University gelungen, Nanobots herzustellen. Die Miniatursysteme verfolgten das Ziel, Krebszellen zum Aufgeben zu bewegen oder Zellen des Immunsystems dazu anzuregen, bestimmte krankheitsauslösende Mikro­ organismen anzugreifen. Mit bestimmten Antikörpern als Fracht von DNA-Nanobots ist es Douglas zusammen mit Professor Ido Bachelt gelungen, Abwehrzellen des Immunsystems auf ausgewählte Erreger gleichsam abzurichten, um das Immunsystem umprogrammieren. Zu diesem Zweck müssen die Miniaturmaschinen zunächst so klein sein, dass sie durch Kapillaren passen. Solche Blutgefäße haben einen Durchmesser von maximal 5000 bis 10.000 Nanometer. Allerdings müssen Nanobots noch deutlich kleiner sein, um sich zwischen den Zellen der Kapillaren hindurch in das durchblutete Gewebe zu bewegen, um dort Wirkstoffe freizusetzen (Honey 2016). Deshalb versucht die DNA-­Nanobot-­ Forschung Methoden zu entwickeln, die die Anzahl der nutzbaren Nanobots erhöht und gleichzeitig die Entwicklungskosten je Nanobot senkt. Nach Douglas sind Mengen ober-

276

5  Das digitale Technologierad der nächsten Generation

halb von 1000  Mrd.  Nanobots anzustreben, um gewünschte Wirkungen bei Menschen oder Tieren zu erzielen. Douglas ging 2017 davon aus, dass erste Humanversuche ab etwa 2022 stattfinden könnten. Im Jahr 2018 ist es einem amerikanisch-chinesischen Forscherteam gelungen, Nanoroboter so zu programmieren, dass sie gezielt Tumore angreifen. Der Direktor des Center for Molecular Design and Biometrics am Biodesign Institute der Arizona State University, Dr. Hao Yan, entwickelte das „erste vollständig autonome DNA-Robotersystem für präzises Arzneimitteldesign und zielgerichtete Krebstherapie“. Ähnlich wie Douglas versteht sich Yan als Experte für das sog. DNA-Origami, das über Faltung von DNS-Strängen die Konstruktion von molekularen Nanorobotern ermöglicht. Diese werden gezielt auf bestimmte Rezeptoren im Körper angesetzt, um bestimmte Aufgaben auszuführen. Laut Yan bestand eine wesentliche Herausforderung darin, Nanobots zu bauen und zu kontrollieren, die aktiv nach Krebsmutationen suchen und diese auszuschalten, ohne dabei gesunde Zellen zu schädigen. Mit seinem internationalen Forscherteam aus Wissenschaftlern der Arizona State University und des National Center for Nanoscience and Technology NSCNST in Peking, hat Yan eine Lösung gefunden: die disruptiven Nanoroboter können Tumoren selektiv angehen und effektiv „aushungern“ lassen. Professor Baoquan Ding am NSCNST ließ die Nanoroboter so programmieren, dass diese molekulare Nutzlasten transportierten und vor Ort Tumorblutversorgungsblockaden verursachen, die zur Schrumpfung von Tumoren führen sollten. Dabei lösten die Bots weder Abwehrmechanismen im Körper von Tieren aus, noch griffen sie gesundes Gewebe an. Die Nanorobotertherapie führte bei den Tieren in drei von acht Fällen zu einer vollständigen Rückbildung der Tumore. Zudem verdoppelte sich die durchschnittliche Überlebenszeit. Aus diesem Grund sprach Yan vom „Ende des Anfangs“ der Disziplin Nanomedizin (Gestl 2018).

5.20 Quantum Computing Noch nie war die Rechenleistung, um komplexe Probleme computergestützt zu lösen, größer als heute. Der erste frei programmierbare, vollautomatische Computer der Welt – die elektromechanische Zuse Z3 des deutschen Bauingenieurs Konrad Zuse – schaffte 1941 knapp zwei Additionen pro Sekunde und damit zwei Floating Point Operations Per Second (FLOPS). Eine FLOP steht für eine Gleitkommaoperation je Sekunde und beschreibt die Leistungsfähigkeit eines Computers bzw. Prozessors. Heutzutage sind Rechenleistungen mit 20 Bio. FLOPS marktüblich. Damit rechnen die handelsüblichen Computer heute bereits über 250.000 Mal schneller als zur Jahrtausendwende. Aber es geht noch schneller: Der Supercomputer Summit des US-Energieministeriums erreichte im 2018 eine Rechenleistung von 122,3  PetaFLOPS.  Im Juni 2019 lag die Rechenleistung von Summit mit insgesamt 9216 IBM-Power9-CPU in Verbindung mit 27.648 Nvidia-Volta-GPU bereits bei 445 PetaFLOPS und damit 445 Brd. bzw. 445.000.000.000.000.000 Gleitkommaoperationen je Sekunde: eine Verdreifachung der Leistung. Trotz dieser beeindruckenden Geschwindigkeit bleibt die Schwäche klassischer Computer in der Art und Weise begründet,

5.20  Quantum Computing

277

wie sie Daten speichern. Ein einzelnes Bit kann die Information 0 oder 1 aufnehmen und lässt Strom fließen oder eben nicht. Diese beiden Werte kann ein Bit jedoch nur abwechselnd speichern. So arbeiten klassische Computer ihre Rechenschritte nacheinander ab. Und weil sie Ströme innerhalb von Nanosekunden an- und abschalten können, sind sie zu Spezialisten für Sprints geworden.

Die enorme Leistungsfähigkeit von konventionell arbeitenden Supercomputern könnte zukünftig von Quantencomputern in den Schatten gestellt werden, denn die Schrittmachertechnologie Quantum Computing gilt als eine der großen Wetten auf die Zukunft. Dabei heben die Gesetze der Quantenmechanik die vorherrschende binäre 0-oder-1-Logik auf. Im Quantencomputer stecken auch keine Transistoren mehr, die bei Digitalrechnern fast schon so klein wie Atome geworden sind und deshalb langsam an ihre natürlichen Grenzen stoßen. Quantencomputer arbeiten mit physikalischen Zuständen oder Wechselwirkungen von beispielsweise Elektronen (Elektronenspin) oder Atomen (Atomenergieniveau) oder Ionen. Auch Photonen, also Quanten des Lichts oder Stickstoffatome in Diamanten stellen Optionen dar. Als aussichtsreiche Quantenkandidaten gelten derzeit elektrische Schaltkreise, die in supraleitenden Mikrochips integriert sind. Qubits statt Bits Als kleinste Teilchen nehmen die Quanten sogenannte Superpositionen ein. Sie können gleichzeitig den Wert 0 oder 1 belegen und auch simultan mit beiden Werten rechnen. Deswegen arbeiten Quantencomputer nicht mehr mit Bits, sondern mit Quantenbits und den Zuständen 0-0, 1-0, 0-1, 1-1. Zwei Quantenbits, kurz Qubits, können mit ihren quantenphysikalischen Fähigkeiten alle vier Zustände gleichzeitig beanspruchen. Vier Qubits können die Zustände von 16  Bits annehmen. Und 20  Qubits bereits potenziell über 1 Mio. Bits; 45 Qubits entsprechen ungefähr der Speichergröße des momentan größten konventionellen Supercomputers. Die vermutete Quantenüberlegenheitsgrenze liegt bei 50  Qubits. Und ein sog.  Quantenregister mit 250  Qubits wäre theoretisch in der Lage, mehr Zahlen gleichzeitig zu speichern als es Atome im Universum gibt (Krauter 2018). Durch ihre Superpositionsfähigkeit steigt die Rechenfähigkeit von Qubits exponentiell. Gleichzeitig ist das neue Nacheinander Vor diesem Hintergrund könnte zukünftig ein ausgereifter Quantencomputer mit etwa 50 Qubits viele Aufgaben schneller lösen als der größte existierende Supercomputer unserer Zeit. Dabei sagt die Anzahl an Qubits allein wenig über die Leistungsfähigkeit eines

278

5  Das digitale Technologierad der nächsten Generation

Quantencomputers aus. Um die gespeicherten Daten parallel verarbeiten zu können, verknüpfen sie die Qubits untereinander – sie lassen sie miteinander kommunizieren. Physiker sprechen in diesem Zusammenhang von sog. Quantenverschränkungen in Form von ausgedehnten Quantenobjekten, bei denen die Quanten eng miteinander verbunden sind. Quantencomputer arbeiten mit verschiedenen Gruppen von verschränkten Qubits. Diese enthalten, vereinfacht gesagt, alle möglichen Lösungen der programmierten Aufgabe gleichzeitig (Wengenmayr 2012). Hingegen müssen konventionelle Rechner die Lösungswege separat nacheinander durchkalkulieren. Eine Domäne der Tech-Giganten War Quantum Computing noch in den 2000er-Jahren von überwiegend akademischem Interesse, experimentieren heute viele große Computerhersteller und Tech-Unternehmen mit Quantencomputern – allen voran IBM, Intel, Microsoft, Google, Toshiba und Alibaba (Abb. 5.23). Auch Volkswagen setzt auf das neue Forschungsfeld und ging Kooperationen mit dem kanadischen Unternehmen D-Wave und Google ein  – mit dem Ziel, den Verkehrsfluss in Megacitys besser zu verstehen und das eigene Verkehrsleitsystem zu verbessern (s. weitere Einsatzfelder beim Quantum Computing in Tab. 5.12). Dabei übernimmt ein Quantenalgorithmus die Optimierung der gesammelten Daten. Googles Bristlecone Auf dem Jahrestreffen der American Physical Society 2018 stellte Google seinen supra­ leitenden Quantenprozessor Bristlecone vor, in dem 72  Qubits miteinander verbunden sind. Dieser soll in den kommenden Jahren komplizierte Optimierungsprobleme lösen und komplexe Simulationsrechnungen ausführen können. Zudem erhoffen sich die Quanteningenieure – so nennt Google seine an der Hardware arbeitenden Wissenschaftler – neue Erkenntnisse auf dem Gebiet des maschinellen Lernens. Die heruntergekühlten Quantenprozessoren lassen sich mit den bekannten Verfahren der Halbleitertechnik fertigen und zwecks Leistungssteigerung beliebig miteinander verschalten. Bislang reagiert der Quantenrechner trotz seiner Kühlung und magnetischen Metalllegierung noch empfindlich auf die störenden Einflüsse von außen und kann aufgrund seiner Fehleranfälligkeit nur einfache Rechenoperationen ausführen. Deshalb versuchen die Forscher bei Google mit ausgeklügelten Korrekturmaßnahmen Defekte weitgehend zu beheben und die Fehlerrate auf ein Niveau von unterhalb 0,5 % zu verringern. Bei einem Neun-Qubits-Quantenprozessor scheint dies Google bereits 2016 gelungen zu sein. Im Jahr 2017 prognostizierte Google, dass erste Anwendungen, die auf Quantentechnologie basieren, voraussichtlich innerhalb von fünf Jahren kommerziell verfügbar sein werden, um es Unternehmen zu ermöglichen, ihre Erlöse zu steigern, Kosten zu reduzieren oder Investitionen in die Infrastruktur zu verringern. Läuft Googles Bristlecone zukünftig stabil und erfolgreich, hätte dieser nach seinem Gründer Sergey Brin, eine Rechenleistung von Millionen konventioneller, marktüblicher Computer. Neben der Weiterentwicklung der eigenen Quantencomputerhardware untersucht Google in seinem Quantum AI Lab die Anwendungsmöglichkeiten und Einsatzbereiche von heutigen und von zukünftigen Quantencomputern. Im Oktober 2019

5.20  Quantum Computing

279

Abb. 5.23  Die erfolgreichsten Quantencomputer im Jahr 2019. (Quellen v.l.n.r.: Erik Lucero from the Quantum AI team at Google; ibm.com; Microsoft.com)

berechnete Google's Quantenprozessor Sycamore für eine eine komplexe Berechnung von Zufallszahlen gerade mal 200 Sekunden. Im Vergleich hätte der aktuell schnellste Supercomputer der Welt dafür rund 10.000 Jahre benötigt. Mit diesem in Nature veröffentlichten Forschungserfolg, erfüllte Google das vom Physiker John Preskill 2012 definierte Kriterium der Quantenüberlegenheit, wenn ein Quantencomputer eine Aufgabe erfolgreich bewältigt, die selbst für die größten konventionellen Supercomputer praktisch unlösbar ist.

280

5  Das digitale Technologierad der nächsten Generation

Tab. 5.12  Beispielhafte Einsatzfelder beim Quantum Computing Zwanzig Einsatzfelder bei Quantum Computing 1. Maschinelles Lernen 2. Training neuronaler Netzwerke 3. Personalisierte Medizin 4. Diagnostische Medizin 5. Betrugserkennung 6. Security-Planung 7. Erkennung von Computerviren 8. Erkennung statistischer Anomalien 9. Klassifizierung unstrukturierter Daten 10. Validierung von Software

11. Portfoliooptimierung 12. Modellierung komplexer Systeme 13. Identifizierung von Marktinstabilitäten 14. Verbesserung von Handelsstrategien 15. Ressourcenplanung/-allokation 16. Bioinformatik 17. Risikooptimierung 18. Supply-Chain-Optimierung 19. Optimierung des Werbeerfolgs 20. Verkehrsflussoptimierung

IBMs Q IBM startete 2017 seine universellen Quantencomputerinitiative Q, die mit 20 supraleitenden Qubits in der Cloud Rechenaufgaben für Industriekunden lösen soll. In der nächsten Generation möchte IBM einen prototypischen 50 Qubit-Prozessor entwickeln. Die Wissenschaftler erhoffen sich eine Leistungssteigerung auf 50–100 Qubits innerhalb von zehn Jahren. Seine Cloud-basierte Rechenplattform Quantum Experience stellte IBM bereits über 100.000 Nutzern zur Verfügung, um Algorithmen und Experimente auf Quantenprozessoren mit 5 und 16  Qubits durchführen und eigene Quantencomputerprogramme zu entwickeln. Einsatzfelder sieht IBM in der Materialwissenschaft, in naturwissenschaftlichen Simulationen in Chemie und Biologie oder in Optimierungsmodellen für wirtschaftliche Abläufe. Microsofts Quantum Microsoft-CEO Satya Nadella kündigte 2017 an, dass Microsoftentwickler noch im gleichen Jahr in der Lage sein werden, Code für Quantencomputer zu programmieren. Einige Monate später stellte der Tech-Konzern externen Entwicklern seine Programmiersprache Q# zusammen mit dem Quantum Development Kit und einem Quantencomputertestsimulator zur Verfügung, um den Einstieg in die neue Technologie zu vereinfachen. Seit 2018 zeigte sich Microsoft zudem zuversichtlich, dass die Quantentechnologie bereits in absehbarer Zeit auch kommerziell erschlossen werden kann. Für seine eigene Hardware hat Microsoft sich die Messlatte hochgehangen. Der Tech-Gigant versucht direkt einen Quantencomputer der nächsten oder übernächsten Generation zu entwickeln: Einen topologischen Quantencomputer, der eine eingebaute Quantenfehlerkorrektur besitzt. Parallel zur Entwicklung seines Quantencomputers verstärkt Microsoft seine Bemühungen, die Infrastruktur und Anwendungsfelder von Quantencomputern auszubauen (Marre 2019).  Ende 2019 kündigte Microsoft Azure Quantum an, um  Nutzern auf der ganzen Welt  Quantencomputing  zugänglich zu  machen. In dem cloudbasierten Ökosystem sollen Nutzer Applikationen entwickeln und Probleme mit vorgefertigten Algorithmen lösen können.

5.20  Quantum Computing

281

Europas OpenSuperQ Im Jahr 2018 erfolgte der Startschuss für das europäische Forschungsprogramm OpenSuperQ, an dem über 5000  Wissenschaftler beteiligt sind. Dabei sollen zehn Partner aus Industrie und Wissenschaft am Forschungszentrum Jülich in Deutschland bis Ende 2021 einen extrem hochleistungsfähigen 100-Qubit-Computer und damit den weltweit größten Quantencomputer entwickeln. Das mit einer Milliarde Euro geförderte Forschungsprogramm soll einerseits die Simulation von Abläufen in Chemie und Materialwissenschaft sowie andererseits das maschinelle Lernen bei KI zu beschleunigen. Zu den Technologien sollen neben dem Quantencomputer auch Quantensensoren und Quantenkommunikation zählen. Geplant ist, eine öffentlich zugängliche Software in der Cloud anzubieten, die jedem Nutzer zur Verfügung stehen soll. Im Juli 2019 vereinbarte die Forschungseinrichtung zudem eine Partnerschaft mit Google. Alibabas Quantum Computing Cloud Service Das chinesische E-Commerce-Unternehmen Alibaba kündigte im März 2018 an, sich auf dem Gebiet Quantum Computing schnell etablieren zu wollen und die Technologie zukünftig als Cloud-Service anzubieten. Dazu machte Alibaba seinen eigenen supraleitenden 11-QuBit-Quantencomputer für die Öffentlichkeit verfügbar. Im Fokus der Q ­ uantentechnik sah Alibaba die Bereiche Finanzdienste, Netzwerksicherheit, E-Commerce, Internet of Things und Pharma. In diesen Feldern sollen quanten-klassische, hybride Algorithmen entwickelt werden, um fundamentale Probleme bei Machine Learning und bei der Optimierung von physikalischen „Simulationen zu lösen“ (Nickel 2018). Zur Erforschung von Quanten, KI und Internet of Things wurde eine Investitionssumme von 15 Mrd. US$ bereitgestellt. Ein Beraterstab mit Experten der Institutionen MIT, Princeton, Columbia University und Peking University soll das Unternehmen bei quantentechnologischen Fragestellungen unterstützen. Als Ziel gibt Alibaba selbst vor, innerhalb von 20  Jahren bis zu 100 Mio. Arbeitsplätze innerhalb und außerhalb des Unternehmens schaffen zu wollen. Neben weiteren großen Quantencomputeranbietern wie Intel mit seinem 49 QuBits-Quantenprozessor und einigen wenigen kleinen, wie beispielsweise Rigetti Computing mit 19 QuBits, D-Wave oder Xanadu, das nicht wie die anderen auf elektrische, sondern auf optische Quantensysteme setzt, tummelt sich eine steigende Anzahl an Unternehmen, wie z. B. 1QBit oder QCWare, die sich vordergründig darauf spezialisieren, den zukünftigen Markt für Softwarelösungen zu erkunden, Know-how zu bündeln oder Quantensimulatoren entwickeln – wie z. B. die Quantum Learning Machine des IT-­Unternehmens Atos, die einen Quantenrechner mit 40 Qubits simuliert. Aktuelle Herausforderungen bei der Schrittmachertechnologie Zum Lösen von Rechenoperationen benötigen Quantencomputer mehrere Qubits – auch Quantenregister genannt. Quantenregister bestehen beispielsweise aus 14 Ionen, die mit einigen Tausendstel Millimeter Abstand untereinander gespeichert werden. Eine zen­ trale  Anforderung an Qubits ist, dass diese einfach zu manipulieren sind. Gleichzeitig sollen sie aber auch möglichst unempfindlich gegenüber Störeinflüssen sein. Demgemäß

282

5  Das digitale Technologierad der nächsten Generation

müssen die Qubits so lange wie möglich in den jeweiligen Zuständen verbleiben, bis die jeweiligen Rechenoperationen durchgeführt wurden (Stahl 2017), denn durch Umwelteinflüsse und exogene Störungen verlieren Qubits ihre „magischen“ Fähigkeiten innerhalb von Sekundenbruchteilen. Gegenwärtig sind die Quantenverschränkungen noch hochempfindlich. Kleinste Störungen lassen sie zerfallen. Neben den üblichen Beeinträchtigungen durch die Magnetfelder von benachbarten Teilchen bringt beispielsweise schon der Zusammenprall mit einem einfachen Luftmolekül die Technologie an Grenzen. Alternativ können Restwärme oder unerwünschte elektrische Störfelder zu schwerwiegenden Fehlern in Berechnungen führen. Diese Fehler veranlassen Qubits, ihre Zustände plötzlich und in unkontrollierter Weise zu ändern. Deshalb müssen Quantencomputer ihre Aufgaben innerhalb der kurzen Lebensdauer der verschränkten Teilchen erledigen können. Nach dem Auslesen von Ergebnissen werden neue Verschränkungen erstellt. Im Kern geht als also darum, Quantenzustände zu schützen und sie gleichzeitig zu kontrollieren und zu manipulieren (Grotelüschen 2018). Lag die theoretische Lebensdauer der Verschränkungen in den 1990er-Jahren noch bei einer Nanosekunde  – das ist ein Tausendstel einer Millionstel Sekunde  – erreichen heutige Wissenschaftler eine ­Qubits-­Lebensdauer von 50 bis 100 Mikrosekunden und auf diese Weise eine Zeitspanne von bis zu einer 0,0001 Sekunden – das ist eine zehntausendstel Sekunde – die sich deutlich vorteilhafter für die Quanteninformationsverarbeitung darstellt. Die Instabilität von Qubits stellt aktuell die größte Herausforderung bei der Entwicklung von praktisch anwendbaren Quantenrechnern dar. Um die störenden Einflüsse zu minimieren, arbeiten Qubits im Vakuum bei tiefsten Temperaturen. Dazu werden die Prozessoren mit flüssigem Helium auf –273 °C abgekühlt. Und selbst bei diesen niedrigen Temperaturen bleiben Fehler unvermeidlich, die im Quantencomputerkontext allerdings besonders unerfreulich sind, da sie exponentiell mit der Anzahl der Qubits ansteigen. Zwar lassen sich die umweltbedingten Störungen korrigieren. Allerdings nur dann, wenn jedem Qubit zusätzliche Korrektur-Qubits beigestellt werden. Eine weitere Herausforderung ist die Überprüfung der Zuverlässigkeit von Quantenrechnungen, die sich derzeit noch über Simulationen auf klassischen Supercomputern abbilden lassen. Bei Erreichen der sog. Quantenüberlegenheit, dem Zeitpunkt, bei dem ein Quantencomputer bei der Ausführung einer Aufgabe die besten Supercomputer übertrifft, geht dies allerdings per Definition nicht mehr (Fischer 2018a, b). Topologische Qubits Professor Alexander Altland verspricht sich von dem Konzept der Topologie angewandt auf die Quantentechnologie bedeutende Vorteile und verweist auf physikalische Experimente aus den 1980er- und 1990er-Jahren. Deren Grundidee bestand darin, einen Knoten in eine Welle zu formen – mit einem verblüffenden Ergebnis: Durch Knoten wurden die Wellen stabiler. Übertragen auf die Quantentechnologie und topologische Qubits lassen sich bisherige Mechanismen aushebeln, die quantenmechanische Wellen empfindlich und leicht zerstörbar machen. Aus diesem Grund prognostizieren einige Wissenschaftler, dass topologische Materialien eines Tages zu schnelleren und effizienteren Computerchips füh-

Literatur

283

ren oder sich auch bei Quantencomputern einsetzen lassen. In diesem Zusammenhang gab Microsoft 2018 an, dass Quantenrechner absehbar kommerzialisiert werden und ein markt­ überlegener Quantenrechner im Jahr 2023 zu erwarten sei. Durch den Einsatz von topologischen Qubits rechnet Microsoft mit zukünftig erheblich weniger Fehlerkorrekturmechanismen. Auf diese Weise ließen sich Aufgaben mit sehr viel weniger Qubits umsetzen. Ausblick in die Zukunft Wenn es Forschern künftig gelingen sollte, einen großen Quantencomputer zu beherrschen, wäre dieser zunächst in der Lage, eine begrenzte Anzahl an Aufgaben schneller umzusetzen als konventionelle Supercomputer. Denn die Verschränkung von Qubits muss orchestriert werden, um zu sinnvollen Ergebnissen zu gelangen. In diesem Punkt helfen Quantenalgorithmen. Beispiele finden sich in der Entschlüsselung von verschlüsselten Daten oder im Durchsuchen großer Datenbanken. Quantencomputer versprechen, mit der Datenexplosion Schritt zu halten. Sie stellen gigantische Rechenleistungszuwächse in Aussicht, um komplexe Aufgaben um ein Vielfaches schneller zu bearbeiten und komplexe Problemstellungen, die heutige Rechner an Grenzen stoßen lassen – wie Klimawandel, Weltarmut, staufreie Straßen, Energiespeicherung, die Zusammensetzung von Batterien für Elektroautos oder Katalysatoren für die Kohlenstoffabscheidung aus der Luft – innerhalb von kurzer Zeit zu lösen. Der Quantenphysiker Professor  Martin Plenio rechnet mit einem Kopf-an-Kopf-­ Rennen zwischen herkömmlichen Computern und Quantencomputern und sieht die Quantencomputer perspektivisch weit voraus. Wie so häufig bei disruptiven Technologien in früher Phase, rechnen einige Experten früher mit einem Durchbruch und schon in den nächsten Jahren mit ersten Quantencomputern für spezielle Forschungsanwendungen. Für wiederum andere Experten bleibt der Hype um Quantencomputer Zukunftsmusik. Doch mit Blick auf die ersten nachweislichen Erfolge der miteinander konkurrierenden Tech-­ Giganten und deren immense Investitionen in die Zukunftstechnologie erscheint die Vision von leistungsfähigen Quantencomputern mit zukünftig 500, 1000 oder selbst 10.000 Qubits im Lauf der kommenden Jahrzehnte nicht mehr ganz so utopisch wie noch zur Jahrtausendwende.

Literatur Albrand, Carolin (2017): Der Zuschauer wird zum Augenzeugen, http://www.ard.de/home/ard/ Was_ist_Virtual_Reality/3364362/index.html. Zugegriffen: 01.04.2019 Andersen, Nicolai (2016): Vorstellung der Blockchain-Technologie „Hallo, Welt!“, https://www2. deloitte.com/content/dam/Deloitte/de/Documents/Innovation/Vorstellung%20der%20Blockchain-Technologie.pdf. Zugegriffen: 02.02.2019 Asendorp, Dirk (2019): Der rollende Roboter zum Einsteigen, https://www.zeit.de/2019/02/ autonomes-­fahren-zukunft-forschung. Zugegriffen: 11.03.2019 Bachmann, Moritz (2018): Die elektronische Patientenakte (ePA) – der lange Marsch ins Digitale Gesundheitswesen, https://blog.comwrap.com/die-elektronische-patientenakte-der-lange-marsch-ins-digitale-gesundheitswesen. Zugegriffen: 10.03.2019

284

5  Das digitale Technologierad der nächsten Generation

Badenschier, Franziska (2016): Nanotechnologien statt Nanotechnologie, https://www.planet-­ wissen.de/natur/forschung/nanotechnologie/index.html. Zugegriffen: 02.03.2019 Bastian, Matthias (2018): VR-Krise 2018: Ab wann ist ein Ende in Sicht?, https://mixed.de/vr-­ krise-2018-ab-wann-ist-ein-ende-in-sicht. Zugegriffen: 01.04.2019 Becker, Leo (2018): Apples App Store vs. Google Play: Halb so viele Downloads, doppelter Umsatz, https://www.heise.de/mac-and-i/meldung/Apples-App-Store-vs-Google-Play-Halb-so-vieleDownloads-doppelter-Umsatz-4113022.html. Zuggriffen: 02.01.2019 Benedikter, Roland (2016): Deutschland und die Zukunftstechnologien, https://www.heise.de/tp/features/Deutschland-und-die-Zukunftstechnologien-3454459.html?seite=all. Zugegriffen: 20.02.2019 Bolton, Ruth et al. (2018): Customer experience challenges: bringing together digital, physical and social realms, Journal of Service Management, Vol. 29, Issue 5, S. 776–808 Bork Ulrich; Weitz, Jürgen; Penter, Volker (2018): Apps und Mobile Health: Viele Potenziale noch nicht ausgeschöpft, in: Deutsches Ärzteblatt, 115 (3), A-62, B-57, C-57 Bouwman, Vanessa (2018): Digital in 2018: Die Anzahl der Internetnutzer weltweit knackt die 4 Milliarden Marke, wearesocial.com, https://wearesocial.com/de/blog/2018/01/global-digital-report-2018. Zugegriffen: 13.01.2019. Brandstötter, Christian (2018): Drohnen als Lebensretter – 2 Schwimmer gerettet, https://drohnen360. com/drohnen-als-lebensretter-2-schwimmer-aus-seenot-gerettet. Zugegriffen: 05.03.2019 Breinich-Schilly, Angelika (2018): Die Blockchain verändert die Finanzwelt, https://www.springerprofessional.de/bank-it/transformation/die-blockchain-veraendert-die-finanzwelt/16285446. Zugegriffen: 01.02.2019 Breismeier, Jens (2018): Social Media-Trends 2019 für Mediaentscheider, https://www.marketingleiter.today/social-media-trends-2019-fuer-mediaentscheider. Zugegriffen: 13.01.2019 Bremmer, Manfred (2018): Robotic Process Automation wird zur Einstiegstechnologie, https:// www.computerwoche.de/a/robotic-process-automation-wird-zur-einstiegstechnologie,3545329. Zugegriffen: 18.03.2019 Brien, Jörn (2018): Siri, Alexa, Assistant oder Cortana – wer sind die klügsten Sprachassistenten im Land?, https://t3n.de/news/kluegste-sprachassistenten-test-1134308. Zugegriffen: 20.03.2019 Brost, Marc (2018): 5G  – Deutschland hängt sich ab, https://www.zeit.de/2018/44/5g-schnellesinternet-­zukunft-digitalisierung-mobilfunkstandard-bundesregierung. Zugegriffen: 03.01.2019. Bundesamt für Strahlenschutz (2019): Elektromagnetische Felder – 5G, http://www.bfs.de/DE/themen/emf/mobilfunk/basiswissen/5g/5g_node. Zugegriffen: 30.05.2019 Bundesregierung (2019): Was ist Nanotechnologie, https://www.bundesregierung.de/breg-de/themen/was-ist-nanotechnologie%2D%2D449974. Zugegriffen: 25.02.2019 Buhleier, Claus et al. (2017): Cyber Security und der Aufsichtsrat, Herausforderungen und Aufgaben, BOAeRD 4/2017, S. 169–172 Bundesamt für Sicherheit in der Informationstechnik BSI (2019): Digitale Gesellschaft – Grundsätzliche Funktionsweise biometrischer Verfahren, https://www.bsi.bund.de/DE/Themen/DigitaleGesellschaft/Biometrie/AllgemeineEinfuehrung/einfuehrung.html. Zugegriffen: 30.1.2019 Carl Michael (2018): 3D Druck von Organen: State of the Art und Prognose, http://future-­healthcare. news/2018/09/12/3d-druck-von-organen-state-of-the-art-und-prognose-2. Zugegriffen: 20.02.2019 Checkpoint (2019): Prevent the next mega cyber attack, https://www.checkpoint.com/de/gen-vcyber-­security. Zugegriffen: 22.01.2019 Chen, Yirou (2019): Black Box Künstliche Intelligenz: Brauchen wir mehr Licht oder mehr Vertrauen?, https://www.digitale-exzellenz.de/black-box-ki. Zugegriffen: 09.03.2019 Conrad, Bernd (2019): Technologieführer bei autonom fahrenden Autos, https://www.auto-motor-­ und-sport.de/tech-zukunft/waymo-autonome-autos-usa-europa. Zugegriffen: 19.03.2019

Literatur

285

Computerwoche (2018): Die Geschichte des Cloud-Computing, http://sms-computerwoche.pageflow.io/die-geschichte-der-cloud#16347. Zugegriffen: 10.08.2018 Dixon, Liza (2018): Self Driving Car Startups to Watch, https://angel.co/job-collections/top-selfdriving-cars-startups. Zugegriffen: 15.03.2019 Dommel, Eilyn (2018): Die Blockchain schickt Geschäftsmodelle auf den Prüfstand, https://www. elektronikpraxis.vogel.de/die-blockchain-schickt-geschaeftsmodelle-auf-den-pruefstand-a-701298. Zugegriffen: 01.02.2019 Donath, Andreas (2019): 3D-gedruckter Shuttle-Bus übersteht Crashtest, https://www.golem.de/ news/local-motors-3d-gedruckter-shuttle-bus-uebersteht-crashtest-1903-139898.html. Zugegriffen: 23.01.2020 Eckl-Dorna, Wilfried (2019): Softbank steckt Milliarde in Robo-Van-Firma Nuro, http://www. manager-­magazin.de/unternehmen/autoindustrie/autonomes-fahren-die-wichtigsten-roboterauto -start-ups-in-den-usa-a-1248195-4. Zugegriffen: 20.03.2019 Feuerborn, Bernd (2019): Drohneneinsatz: Bauern sind Überflieger bei Digitalisierung https://www. agrarheute.com/technik/ackerbautechnik/drohneneinsatz-bauern-ueberflieger-digitalisierung-549875. Zugegriffen: 01.03.2019 Fischer, Lars (2018a): Google enthüllt den bisher größten Quantencomputer, https://www.spektrum. de/news/google-enthuellt-bisher-groessten-quantencomputer/1549295. Zugegriffen: 05.11.2018 Fischer, Teresa (2018b): Realität Plus, https://www.blog.kuka.com/2018/10/18/realitaet-plus. Zugegriffen: 01.04.2019 Fliegauf, Vanessa (2017): Die Blockchain-Technologie – Implementierungspotenziale für die Musikindustrie, in: Endreß, Alexander; Geldner, Steffen (Hrsg.), Popakademiedigital #, Dezember 2017, Popakademie, Baden-Württemberg Fraunhofer Gesellschaft (2019): Gesundheit und Umwelt  – Implantate, Prothetik, https://www. fraunhofer.de/de/forschung/forschungsfelder/gesundheit-umwelt/implantate-prothetik.html. Zugegriffen: 10.03.2019 Gartner (2018): Gartner Survey Reveals Nearly Half of Organizations Implementing IoT Are Using or Plan to Use Digital Twin Initiatives in 2018, https://www.gartner.com/en/newsroom/press-­ releases/2018-03-13-gartner-survey-reveals-nearly-half-of-organizations-implementing-iot-are -using-or-plan-to-use-digital-twin-initiatives-in-2018. Zugegriffen: 13.01.2019 Gestl, Sebastian (2018): Krebs-bekämpfende Nanobots werden zur Tumor-Jagd programmiert, https://www.elektronikpraxis.vogel.de/krebs-bekaempfende-nanobots-werden-zur-tumor-jagd-programmiert-a-685922. Zugegriffen: 03.03.2019 Gesellschaft für Informatik (2017): Digitaler Zwilling, Lexikon, 02.11.2017, https://gi.de/informatiklexikon/digitaler-zwilling. Zugegriffen: 10.01.2019. Gibbs, Samuel (2018): Speech recognition is tech‘s next giant leap, says Google, https://www.theguardian.com/technology/2018/sep/24/speech-recognition-tech-google. Zugegriffen: 22.01.2018 Gräve, Rüdiger (1997): Überall erreichbar – die Entwicklung des Mobiltelefons, Post- und Telekommunikationsgeschichte Regionalbereich West, Heft 1999 Griffith, Erin (2018): 187 Things the blockchain is supposed to fix, https://www.wired.com/story/187-things-the-blockchain-is-supposed-to-fix. Zugegriffen: 02.03.2019 Grotelüschen, Frank (2018): Auf dem Weg zur QuantentechnologieKnoten, die nicht platzen, https:// www.deutschlandfunk.de/auf-dem-weg-zur-quantentechnologie-knoten-die-nicht-platzen.740. de.html?dram:article_id=411023. Zugegriffen: 03.11.2018 Gruber, Angela (2016): Physikalische Grenze der Chip-Entwicklung – Kleiner geht‘s nicht, http:// www.spiegel.de/netzwelt/web/moore-s-law-die-goldene-regel-der-chiphersteller-broeckelt-a-1083468.html. Zugegriffen: 03.01.2019 Haas, Michaela (2018): Druck mir bitte eine neue Leber!, https://sz-magazin.sueddeutsche.de/ die-loesung-fuer-alles/druck-mir-bitte-eine-neue-leber-85609. Zugegriffen: 21.02.2019

286

5  Das digitale Technologierad der nächsten Generation

Hecker, Dirk et  al. (2017): Zukunftsmarkt Künstliche Intelligenz, Fraunhofer-Allianz Big Data, https://www.iais.fraunhofer.de/content/dam/bigdata/de/documents/Publikationen/KI-Potenzialanalyse_2017.pdf. Zugegriffen: 10.08.2018 Hermann, Wolfgang (2018): Wie neue Konzepte die Digitalisierung beschleunigen, https://www. computerwoche.de/a/wie-neue-konzepte-die-digitalisierung-beschleunigen,3545556. Zugegriffen: 01.03.2019 Honey, Christian (2016): Nanobots – Kleine Ärzte, die man schlucken kann, https://www.golem.de/ news/nanobots-kleine-aerzte-die-man-schlucken-kann-1601-118515.html. Zugegriffen: 15.02.2019 Hölscher, Bert (2017): Digitales Dilemma, Tredition Verlag, Hamburg Karlstetter, Florian (2018): Datenverarbeitung am Netzwerkrand – Was ist Edge Computing?, https:// www.cloudcomputing-insider.de/was-ist-edge-computing-a-742343. Zugegriffen: 20.05.2019 Jacobsen, Jens (2018): Die Zukunft der Sprachassistenten – entscheidet sie sich 2018?, https://www.usabilityblog.de/die-zukunft-der-sprachassistenten-entscheidet-sie-sich-2018. Zugegriffen: 18.01.2019 Keane, Philipp (2018: Digital Twins: Wo stehen wir heute, https://www.engineering.com/deutsch/ cadcae/digital-twins-wo-stehen-wir-heute. Zugegriffen: 12.01.2019 Kolisch, Nicole (2016): Den Rollstuhl mit Gedanken steuern, https://www.netdoktor.at/krankheit/ neue-medien/brain-computer-interfaces-beim-cybathlon-6893643. Zugegriffen: 10.03.2019 Klein, Walter (2013): Innovationsstrategien und internationale Wettbewerbsfähigkeit im Bereich der Windenergie, Springer Gabler, Wiesbaden Knop, Carsten (2018): Alles, was Sie über 5G wissen müssen, https://www.faz.net/aktuell/wirtschaft/diginomics/5g-fakten-alles-was-sie-ueber-5g-wissen-muessen-15811250.html. Zugegriffen: 04.01.2019 Köppe, Julia (2018): Ethik und autonomes Fahren, http://www.spiegel.de/wissenschaft/technik/ unfaelle-mit-selbstfahrenden-autos-wer-soll-leben-wer-soll-sterben-a-1234901. Zugegriffen: 18.03.2019 Kranz, Beate; Stehle, Anja (2018): Deutsche Firmen sind Spitze beim Autonomen Fahren, https:// www.abendblatt.de/wirtschaft/article213570089/Deutsche-Firmen-sind-Spitze-beim-Autonomen-Fahren. Zugegriffen: 18.03.2019 Krauter, Ralf (2018): Rechnen mit QubitsDer Hype um die Quantencomputer, https://www.deutschlandfunk.de/rechnen-mit-qubits-der-hype-um-die-quantencomputer.684.de.html?dram:article_ id=422355. Zugegriffen: 08.11.2018 Krzossa, Tobias (2019): Erste 5G-Technologie: Maschinennetz funkt großflächig in Deutschland, https://www.vodafone.de/medien/netz/erste-5g-technologie-maschinennetz-funkt-grossflaechig-in-deutschland. Zugegriffen: 03.01.2019 Kurzweil, Ray (2006): The Singularity Is Near: When Humans Transcend Biology, Penuin Books, London Kyriasoglou, Christina (2018): Autonomes Fahren – Daimler und Bosch gegen die IT-Riesen, http:// www.manager-magazin.de/unternehmen/autoindustrie/autonomes-fahren-daimler-und-boschgegen-die-it-riesen-a-1217891-2. Zugegriffen: 20.02.2019 Länger, Klaus (2017): Wege in virtuelle Welten – was ist Virtual, Augmented und Mixed Reality?, https://www.it-business.de/was-ist-virtual-augmented-und-mixed-reality-a-650442. Zugegriffen: 20.02.2019 Lee, Kai-Fu (2019): AI Superpowers - China, Silicon Valley und die neue Weltordnung, Campus, Frankfurt Lenzen, Manuela (2016): Gehirn-Computer-Schnittstellen: Mit der Kraft der Gedanken, https:// www.spektrum.de/news/gehirn-computer-schnittstellen-werden-alltagstauglicher/1398145. Zugegriffen: 10.03.2019

Literatur

287

Leitenberger, Bernd (2009): Raketenlexikon: Band 1: US Trägerraketen, Books on Demand, Norderstedt Leitherer, Johanna (2018): Relevanz von Social-Media-Marketing steigt, https://www.springerprofessional.de/social-media-marketing/marketingstrategie/relevanz-von-social-media-marketing-steigt/15728574. Zugegriffen: 14.01.2019 Manhart, Klaus (2018): Cloud Trends 2018: Cloud-Services unerlässlich für die digitale Transformation, https://www.computerwoche.de/a/cloud-services-unerlaesslich-fuer-die-digitale-transformation,3544078. Zugegriffen: 02.01.2019 Marre, Jens (2019): Die Quanten-Überlegenheit, http://www.quantencomputer-info.de/quantencomputer/welche-quantencomputer-gibt-es-jetzt-schon/#Googles_supraleitender_Quantencomputer_Bristlecone. Zugegriffen: 22.07.2019 Martins, Filipe; Schreiner, Jakob (2019): IoT-Basics: Was bedeutet Edge Computing?, https://www. industry-of-things.de/iot-basics-was-bedeutet-edge-computing-a-678225. Zugegriffen: 23.01.2020 Moring, Andreas; Maiwald, Lukas; Kewitz, Timo (2018): Bits and Bricks: Digitalisierung von Geschäftsmodellen in der Immobilienbranche, Springer Gabler, Wiesbaden Nickel, Oliver (2018): Alibaba will Quantencomputer und KI-Chips bauen, https://www.golem.de/ news/machine-learning-alibaba-will-quantencomputer-und-ki-chips-bauen-1809-136675.html. Zugegriffen: 28.10.2018 Nordrum, Amy; Clark, Kristen (2017): 5G Bytes: Millimeter Waves Explained, https://spectrum. ieee.org/video/telecom/wireless/5g-bytes-millimeter-waves-explained. Zugegriffen: 02.01.2019 Özkardes, Ceyhun (2019): Blockchain Geschäftsmodelle, https://www.huffingtonpost.de/entry/ blockchain-geschaftsmodelle_de_5bd75439e4b05762aff9dc11. Zugegriffen: 02.03.2019 Perez, Sarah (2014): iTunes App Store Now Has 1.2 Million Apps, Has Seen 75 Billion Downloads To Date, https://techcrunch.com/2014/06/02/itunes-app-store-now-has-1-2-million-apps-hasseen-75-billion-downloads-to-date/?guccounter=1. Zugegriffen: 03.01.2019 Petzold, Sara (2018): VR wächst wieder  – Verkaufszahlen nehmen spürbar zu, https://www.gamestar.de/artikel/nach-langer-flaute-verkaufszahlen-von-vr-headsets-nehmen-wieder-deutlich-zu,3337986. Zugegriffen: 22.01.2019 Phoenix (2018): Bitcoin – Dossier Blockchain (3/5), phoenix.de, 02.06.2018, https://www.phoenix. de/bitcoin-a-256087.html. Zugegriffen: 03.02.2019 Pluta, Werner (2018): Humanoider Roboter Atlas kann Parkour, https://www.golem.de/news/boston-­ dynamics-humanoider-roboter-atlas-kann-parkour-1810-137085. Zugegriffen: 22.03.2019 Policy Horizons Canady (2013): Metascan 3: Emerging Technologies, Ontario Puscher, Frank (2017): Sprachsteuerung: Zukunft im E-Commerce?, https://www.heise.de/select/ ix/2017/6/1495887701346487. Zugegriffen 01.02.2019 Rauschert, André; Simroth, Axel (2014): Präskriptive Analytik und Big Data: Technologien und Methoden zur Ableitungen von Entscheidungen, in: Fraunhofer Jahresbericht 2014, S. 42–43 Reder, Bernd (2017): Das sind die Einsatzgebiete von Drohnen, https://www.internetworld.de/e-­ commerce/logistik/einsatzgebiete-drohnen-1205240.html. Zugegriffen: 20.02.2019 Reinheimer, Stefan (2017): Industrie 4.0: Herausforderungen, Konzepte, Praxisbeispiele, Springer Vieweg, Wiesbaden Reintjes, Thomas (2017): Mit Deep Patient zur Diagnose, https://www.deutschlandfunk.de/ kuenstliche-­intelligenz-mit-deep-patient-zur-diagnose.676.de.html?dram:article_id=406698. Zugegriffen: 01.03.2019 Reinwarth, Matthias (2016): Blockchain: Geschäftsmodelle ohne Mittelsmann, https://www.computerwoche.de/a/blockchain-geschaeftsmodelle-ohne-mittelsmann,3221813. Zugegriffen: 01.12.2018

288

5  Das digitale Technologierad der nächsten Generation

Reinsel, David; Gantz, John; Rydning, John (2018): Data Age 2025 – form Edge to Core, White Paper, November 2018, https://www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper.pdf. Zugegriffen: 30.01.2019 Rieber, Daniel (2017): Mobile Marketing: Grundlagen, Strategie, Instrumente, Springer Gabler, Wiesbaden Rieger, Oliver (2019): Quo vadis KI? Die drei Wellen der Künstlichen Intelligenz, https://www.bigdata-insider.de/quo-vadis-ki-die-drei-wellen-der-kuenstlichen-intelligenz-a-846146. Zugegriffen: 22.01.2020 Rueß, Sandra (2018): So funktioniert Blockchain, https://www.computerwoche.de/a/so-­funktioniertblockchain,3331391. Zugegriffen: 02.02.2019 Safar, Milad (2018): Was ist Robotic Process Automation, https://weissenberg-solutions.de/ was-ist-robotic-process-automation. Zugegriffen: 21.03.2019 Sager, Ira (2012): Before IPhone and Android Came Simon, the First Smartphone, Bloomberg Businessweek, https://www.bloomberg.com/news/articles/2012-06-29/beScfore-iphone-and-android-came-simon-the-first-smartphone. Zugegriffen: 02.01.2019 Scholz, Detlef (2015): Die transhumanistische Bewegung, Ausgabe 198/2015, Ehlers Verlag, Wolfratshausen Schnabel, Patrick (2019): Die Geschichte des Mobilfunks, https://www.elektronik-kompendium.de/ sites/kom/0910121.htm. Zugegriffen: 03.01.2019 Schuh, Günther; Klappert, Sascha (2011): Technologiemanagement – Handbuch Produktion und Management 2, Springer, Wiesbaden Schumann, Florian (2018): Forschung an der Schnittstelle: Hirn-Maschine, https://www.rbb-online. de/rbbpraxis/rbb_praxis_service/neurologie/neurologie-technologie-gehirn-computer-charite-berlin.html. Zugegriffen: 12.03.2019 Schuster, Heidemarie (2018): Mobile Devices verändern die Arbeitswelt, https://www.it-business. de/mobile-devices-veraendern-die-arbeitswelt-a-738743. Zugegriffen: 04.01.2019 Stahl, Michael (2017): Wie funktionieren Quantencomputer?, https://praxistipps.chip.de/wie-­ funktionieren-quantencomputer-einfach-erklaert_96100. Zugegriffen: 01.10.2018 Statista (2019): Prognose zur Anzahl der Smartphone-Nutzer weltweit von 2012 bis 2021, https:// de.statista.com/statistik/daten/studie/309656/umfrage/prognose-zur-anzahl-der-smartphone-nutzer-weltweit. Zugegriffen: 04.01.2019 Sundermann, Marc (2018): Cloud-Management hält die Kosten im Griff, https://www.computerwoche.de/a/cloud-management-haelt-die-kosten-im-griff,3545935. Zugegriffen: 02.12.2019 Wellbrock, Bianca (2017): 4D-Druck – ein Blick in die Zukunft, https://blog.conrad.at/4d-druckein-blick-in-die-zukunft. Zugegriffen: 15.02.2019 Wengenmayr, Roland (2012): Superrechner für Spezialanwendungen, https://www.zeit.de/digital/ internet/2012-07/quantencomputer-medikamente-materialforschung. Zugegriffen: 01.11.2018 Wolan, Michael (2013): Digitale Innovation: Schneller. Wirtschaftlicher. Nachhaltiger, Business Village, Göttingen

6

Im Gespräch mit Transformationsgestaltern und Vordenkern

6.1

I nterview mit Philipp Magnus Froben, Geschäftsführer bei Medienhaus DuMont Rheinland

Herr Froben, die Verlagswelt steht schon lange unter Veränderungsdruck. Was war rückblickend die für Sie prägendste Erfahrung? Mein erster persönlicher „wake-up call“ war der enorme Wandel im Rubrikengeschäft. Anfang der 2000er-Jahre umfassten Stellenmarkt, Automarkt oder Immobilienmarkt in Tageszeitungen noch teilweise bis zu 100 Seiten. Bis zu diesem Zeitpunkt gab es keine vergleichbaren Angebote im Internet. Verlage haben die neuen Auto-, Immobilien- oder Jobportale zwar beobachtet, doch hätten sie es nicht für möglich gehalten, dass bei der eigenen Größe und Bekanntheit im Markt ein komplettes, hochprofitables Segment wegbrechen könnte. Innerhalb von etwa drei bis fünf Jahren war das aber der Fall. Dieser Disruption hat die Verlagsbranche nur zugesehen, nicht wirklich reagiert, da die Angst vorherrschte, sich selbst zu kannibalisieren. Warum sollten Verlage das noch hochprofitable Geschäftsmodell zerstören? Bei der damaligen starken Marktposition galt eher die – aus heutiger Sicht – fatale Haltung: „Wenn wir dreistellige Millionenbeträge verdienen, greifen wir uns doch nicht selber an“. Wie würden Sie heute reagieren, wenn Sie wieder mit einer solch einschneidenden Veränderung konfrontiert wären? Wir erleben Veränderungen permanent: Neue digitale Produkte entstehen, manche verschwinden, manche bleiben. Wir blicken auf zunehmend digital agierende Wettbewerber, die, wie z. B. Facebook, Inhalte verbreiten und Werbung verkaufen. Jeder kann heute Inhalte produzieren, es gibt keine hohen Markteintrittsbarrieren mehr wie damals die Investitionen in Druckmaschinen. Jeder Influencer kann ein Wettbewerber sein, der mit seinen Inhalten im Leser- und im Werbemarkt ein Medienunternehmer ist. Diese Veränderungen beobachten

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 M. Wolan, Next Generation Digital Transformation, https://doi.org/10.1007/978-3-658-24935-9_6

289

290

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

wir heute natürlich intensiv, hinterfragen unsere Arbeit und unsere Produkte und reagieren schneller und konsequenter auf Marktveränderungen. Wir sind selber aktiv, entwickeln eigene Produkte, kooperieren mit Unternehmen oder beteiligen uns. Ein Beispiel: Da wir im Bereich der digitalen Werbung im Wesentlichen Bannerwerbung anbieten, hat DuMont sich an Facelift beteiligt, einem technologisch führenden Unternehmen für Social Media Marketing. Ein wachsender Markt, in dem wir nun das richtige Know-­how haben und Kunden durch das größere Portfolio an Leistungen einen Mehrwert anbieten können. Damit beschreiben Sie ein gutes Beispiel für Ambidextrie. Auf der einen Seite halten Sie an Ihrem klassischen Anzeigengeschäft fest. Auf der anderen Seite steigen Sie in ein neues digitales Geschäftsmodell ein, das auf Datenanalyse basiert. Wie managen Sie diese beiden doch recht unterschiedlichen Welten innerhalb Ihrer Organisation? Ambiguität ist ein guter Begriff, um unsere Strategie zu beschreiben. Einerseits betreiben wir unser Kerngeschäft und entwickeln dieses weiter, indem wir unsere starken Marken weiterentwickeln, unsere Produkte und Kundenbeziehungen verbessern, und andererseits wollen wir neue Produkte und mediennahe Geschäftsmodelle auf den Weg bringen und unser bestehendes Geschäft digitalisieren. Beides beschäftigt uns: Sicherung des Bestandsgeschäfts und Schaffung neuer Angebote. Wir haben eine alte, sehr wertschöpfende Organisation, mit der wir das bestehende Geschäft kontrollieren und planbar steuern. Darüber hinaus versuchen wir, Neues aus unseren eigenen Stärken heraus zu schaffen. Die eigenen Assets wie der Kundenzugang und die hohe Glaubwürdigkeit, das Vertrauen, sind dabei extrem wichtig. Beim Leadership verstehen wir uns auf der einen Seite als Brückenbauer. Wir fragen uns, was wir aus der alten Welt übertragen können, ohne dabei an Tempo zu verlieren. Wie wir maximal agil sein können und gleichzeitig erfahrene Kollegen und traditionelle Werte mitnehmen – durchaus auch Werte im Sinn von Leidenschaft, Mut und Unternehmertum. Auf der anderen Seite ist es manchmal sinnvoll, auf der grünen Wiese zu agieren, wo eine neue und unbefangene Sicht besteht. Ambidextrie im Leadership heißt also das eine zu tun, ohne das andere zu lassen. Die Entscheidung ist dabei abhängig vom Umfeld, der Branche, den Personen des Managements oder auch von den Spezifika einer bestimmten Sparte. Beispielsweise sind unsere Boulevard-Titel einem anderen Marktdruck ausgesetzt als unsere Abonnementtitel und erfordern daher auch ein anderes Handeln. Die Ambidextrie ergibt sich aus unserem Kerngeschäft: die Umsätze aus dem traditionellen Zeitungsgeschäft sind weiterhin hoch, die Umsätze aus dem Digitalen gering. Auch wenn unsere digitale Reichweite inzwischen stark gewachsen ist – der EXPRESS ist mit 35 Mio. Visits im Monat die reichweitenstärkste regionale Nachrichtenseite Deutschlands –, reicht diese Entwicklung allein noch nicht aus, die Kosten für die Infrastruktur dahinter zu tragen. Um Wachstum zu erzeugen, müssen wir daher durch die Entwicklung neuer Produkte und die Gewinnung neuer Kunden mehr Umsätze generieren und gleichzeitig die Kosten im Griff haben. Trotz der bereits erreichten Geschwindigkeit in der Veränderung müssen wir noch schneller werden, noch agiler handeln und technologisch vorangehen. Unser größtes Risiko ist daher die Zeit. Reicht sie, um den Wandel zu meistern? Sind wir schnell genug? Die Transformation hat sehr viel mit kulturellen Veränderungen zu tun. Die Unterneh-

6.1  Interview mit Philipp Magnus Froben, Geschäftsführer bei Medienhaus DuMont …

291

menskultur steht daher auch im Fokus. Um Peter Drucker zu zitieren: „culture eats strategy for breakfast“. Eine Strategie hilft nicht weiter, wenn nicht die Kultur vorhanden ist, die PS auf die Straße zu bringen. Was ist Ihr Plan für die Zukunft – wie begegnen Sie der sich beschleunigenden Digitalisierung in den kommenden Jahren? Der Digitalisierung begegnen wir in einer Art Dreiklang: Daten, Technologie und Talente sind dabei die Schlüssel für unsere Zukunft. Um zu bestehen, müssen wir uns weiter in eine inhalte- und datengetriebene Organisation verwandeln. Das bedeutet eine radikale Veränderung in allen Wertschöpfungsbereichen des Unternehmens. Unsere Nachrichtenmarken haben ihre Zukunft eindeutig im Digitalen. Dabei ist eine hohe Reichweite die Basis für jede Art von zukünftigen digitalen Geschäftsmodellen. Für die Werbemärkte gilt es, neue, performance-basierte Zielgruppenangebote zu entwickeln – jenseits des klassischen Bannerverkaufs. Für die Nutzermärkte besteht die große Herausforderung, unsere Inhalte auch im digitalen Umfeld zu monetarisieren – also mit Paid Content relevante Umsätze zu erzielen. Die erste Frage ist, wofür der Nutzer bereit ist zu bezahlen. Dabei ist wichtig: Nicht wir als Medienunternehmen entscheiden, sondern der Nutzer bestimmt durch sein eigenes Verhalten, was relevant ist. Und diese Relevanz definiert das Bezahlangebot. Daran anknüpfend sehe ich die Frage, wie wir es schaffen, anhand von Daten neue Produkte und Angebote zu entwickeln  – im Long-tail-Bereich, in Nischen, zielgruppenspezifisch, hoch relevant und weitgehend automatisiert über Algorithmen definiert. Hierfür setzen wir auf Analysten und Produktentwickler. Mit dem zusätzlichen Datenwissen werden wir somit jeden Tag neue Produkte entwickeln können. Damals haben wir mit 20 Mitarbeitern als erstes Unternehmen eine in Fachkreisen vielfach ausgezeichnete Nachrichten-App entwickelt. Und dennoch wurde diese App von nur 5000 Menschen aktiv genutzt, sodass wir den Betrieb wieder einstellen mussten. Das werden wir zukünftig nicht wiederholen, wir werden aus dem Nutzerverhalten Daten generieren, die es uns erlauben, zielgruppengenaue Inhaltsangebote zu entwickeln und diese zeitgleich mit Werbung zu verknüpfen. Statt einem Angebot werden wir zahlreiche verschiedene Angebote haben, die hochgradig individuellen Kundennutzen liefern. Daraus ergeben sich ungeahnte Wertschöpfungsmöglichkeiten. Hierzu müssen wir vor allem in Technologien investieren, um mit vielen relevanten Daten großes Kundenwissen zu generieren und dieses mit künstlicher Intelligenz zu verknüpfen. Unsere klassischen Verlagssysteme sind nicht ansatzweise in der Lage, das abzubilden, sie sind im Kern im letzten Jahrtausend entwickelt. Aus diesem Grund stützen wir uns künftig auf die nutzerzentrierte, datengetriebene und vernetzte Plattform von censhare, die sämtliche verfügbaren Informationen in Echtzeit in Beziehung setzt. Zudem benötigen wir natürlich auch Mitarbeiter, die in der Lage sind, mit Daten und digitalen Technologien souverän umzugehen. Wenn Sie mit begrenzten Ressourcen ausgestattet zwischen Kosteneinsparung und Wachstum entscheiden müssten, welchen Weg würden Sie einschlagen und warum? Ich würde mich immer für Wachstum entscheiden. Ein Unternehmen, das nicht wächst, kann nicht bestehen. Kosten zu reduzieren ist keine Strategie. Kostenmanagement schafft

292

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

keinen Umsatz und schafft keine neuen Produkte. Natürlich muss man durch konsequentes Kostenmanagement die Kosten im Griff haben – das ist eine notwendige Pflicht. Doch die Kür ist, Wachstum zu erzeugen. Und warum machen es die meisten transformierenden Unternehmen genau anders herum und setzen überwiegend auf Effizienzprogramme und deutlich weniger auf Digitalwachstum? Weil sie Ergebnisse liefern müssen. Wachstum ist in der Regel nur mittelfristig zu erreichen. Es braucht einen langen Atem, einen Marathonlauf, um neue analoge wie digitale Geschäftsmodelle und Geschäftsideen zu entwickeln, im Markt zu platzieren und relevant zu machen. Wenn gleichzeitig das klassische Kerngeschäft rückläufig ist, lässt sich häufig nicht so schnell neues Geld durch neue Geschäftsinitiativen verdienen, wie Bestandsumsatz verloren geht. Kosten zu reduzieren geht relativ schnell, die Effekte lassen sich sehr genau quantifizieren. Aber signifikantes Wachstum über Umsatz und Ergebnis zu erzeugen, dauert zwei bis drei Jahre, meist verbunden mit einem Risiko im prognostizierten Ergebnis. Wie sieht Ihr Geschäft von morgen aus, wenn die Schlüsseltechnologie künstliche Intelligenz integraler Bestandteil des Geschäfts sein wird? Ich glaube, in Deutschland wird die signifikante Anwendung von künstlicher Intelligenz möglicherweise noch zehn Jahre dauern. Ich bin davon überzeugt, dass in unserer Branche, z. B. im Bereich der Texterstellung oder der Kundenbetreuung in drei bis fünf Jahren künstliche Intelligenz massiv eingesetzt wird und nachrichtliche Inhalte wie Börsen- oder Wettertexte automatisiert und intelligent durch sog. Roboter erstellt werden. Bereits heute wird dies auch bei Sportergebnissen und in Teilen der Wirtschaftsnachrichten umgesetzt. Der Vollständigkeit halber: Ich bin auch überzeugt, dass dadurch für den eigentlichen Kern der journalistischen Tätigkeit Freiräume entstehen, die unsere Produkte insgesamt besser und relevanter machen. Was ist Ihre Idee, wo Zeitungsverlage in zehn Jahren stehen könnten? Auch noch in 100 Jahren bleibt die Basis unseres klassischen Geschäftsmodells erhalten: nämlich wichtige und relevante Inhalte aus lokalen Räumen zu erstellen und zu verbreiten. Menschen werden sich immer dafür interessieren, was um den Kirchturm herum passiert. Die Frage wird sein, auf welchem Weg die Inhalte zu den Menschen gelangen und wie ein Medienunternehmen damit Geld verdient. Wenn Informationen und Service besonders relevant und unique sind, wenn sie per se einen besonderen Nutzwert haben oder die Inhalte in ihrer Darstellung und Art besonders kuratiert sind, haben diese einen Wert. Ein wichtiges wertschöpfendes Element ist die Kundenbeziehung und damit das Wissen um die Bedürfnisse unserer Kunden, die wir im Nutzer-, aber auch im Werbemarkt anders und neu nutzen können. In zehn Jahren muss die Medienbranche also deutlich digitaler ausgerichtet sein und neue digitale Geschäftsmodelle hervorgebracht haben. Medienhäuser werden sich immer stärker in datengetriebene Organisationen transformieren. Aber es wird nach meiner Überzeugung auch weiterhin bedrucktes Papier geben – inhaltlich, in Form, Umfang und Periodizität sicherlich anders als heute.

6.1  Interview mit Philipp Magnus Froben, Geschäftsführer bei Medienhaus DuMont …

293

Der technische Fortschritt erzeugt einen ständig zunehmenden Anpassungsdruck. Wie lange halten wir Menschen diesem Druck eigentlich noch stand? Wir Menschen wachsen mit unseren Aufgaben. Wir lernen, zunehmende Komplexität zu beherrschen. Wenn menschliche Belastungsgrenzen erreicht werden, wird es neue technologische Lösungen geben, mit der Komplexität reduziert wird. Wesentliche Routinetätigkeiten werden wir an künstliche Intelligenz auslagern und auf dieser Basis Entscheidungen treffen können. Im Beruf und im Privaten können wir diese Entlastung nutzen, um uns auf die wesentlichen Aufgaben und Tätigkeiten zu konzentrieren, die viel mit menschlichen Emotionen zu tun haben, mit Kommunikation und Führung. Oder wir nutzen die Entlastung, um wieder ein gutes Buch zu lesen. Was glauben Sie, in welchem Jahr künstliche Intelligenz uns Menschen überholt haben wird, sodass wir ohne technische Hilfsmittel nicht mehr in der Lage sein werden, diese zu verstehen? Es gibt nur eine Antwort auf die Frage. Wenn wir es merken, dann ist es noch nicht passiert. Wenn es soweit ist, werden wir es nicht mehr merken. Künstliche Intelligenz wird bereits in vielen Bereichen (z. B. Börse, Medizin) genutzt, auf der anderen Seite bremsen aber (nationale) Reglementierungen, machtvolle Lobbyistenverbände oder moralisch-­ ethische Fragestellungen die Entwicklung. Dennoch: Die Dynamik in der digitalen Transformation nimmt exponentiell weiter zu. Wir stehen immer noch am Anfang. In diesem Umfeld wird bereits im Jahr 2030 die künstliche Intelligenz wesentliche menschliche Fähigkeiten übernommen haben. Dann bin ich 65 und freue mich darauf. Kurzprofil Philip Magnus Froben

Geschäftsführer, Medienhaus DuMont Rheinland

294

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Nach seinem Studium der Betriebswirtschaft an der Universität Berlin konnte er in verschiedenen beruflichen Stationen – als Marketingexperte in einer Werbeagentur, als Verantwortlicher für das Zuschauermarketing eines Fernsehsenders oder in Medienhäusern wie Axel Springer, G + J oder Holtzbrinck – den digitalen Wandel hautnah miterleben und gestalten. Den heutigen Geschäftsführer eines der größten regionalen Medienhäuser in Deutschland (DuMont Rheinland) beschäftigt und begeistert die digitale Transformation damit seit zwei Jahrzehnten. Und dies auf vielfältige Art und Weise: Von der Digitalisierung aller Kernprozesse in Verlag, Redaktion, Druck oder Zustellung, über die digitale Neuaufstellung von Organisationen oder Abteilungen, bis hin zu kundenzentrierten Produktentwicklungen oder Entwicklungen einer veränderungsbereiten, agilen Unternehmenskultur. Dabei wird deutlich: Die Zukunftssicherung von Nachrichtenmarken liegt in der Veränderung von einem traditionellen Verlagshaus hin zu einem inhalte- und datengetriebenen Unternehmen. Froben verfolgt in diesem Zusammenhang eine klare Mission: „Wir machen relevante Inhalte für eine vernetzte Gesellschaft. Dabei nutzen wir diesen Inhaltekontakt, um im Leser- und Werbemarkt erfolgreiche Geschäftsmodelle zu betreiben“.

6.2

I nterview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische Innovation und Technologiemanagement

Herr Prof. Baltes, wir erleben gerade eine enorme Veränderung durch Digitalisierung. Was sind die größten Gefahren für Unternehmen? Ich sehe vor allem zwei Gefahren: erstens, dass wir die Radikalität und Dynamik eines bereits sich vollziehenden Wandels unterschätzen und, zweitens, dass, wenn wir ihn dann wahrnehmen, nicht adäquat darauf reagieren. Wir erleben gerade die Ablösung der mechanistischen, industrialisierten Zeit. Dieses Zeitalter neigt sich dem Ende zu und ein neues beginnt. Wir nennen dieses neue Zeitalter mangels eines besseren Begriffs das digitale Zeitalter. In 50 Jahren werden wir das sicher anders nennen. Unternehmen unterschätzen mitunter den tiefgreifenden Charakter dieser Veränderung, denn wir durchlaufen das mechanistische Zeitalter seit etwa 150 Jahren. Organisationen, Führung und Entscheidungsmechanismen sind darauf ausgerichtet. Es fällt daher unheimlich schwer, sich vorzustellen, die Zukunft könnte fundamental anders aussehen als die lange stabile Empirie der Vergangenheit. Wenn wir uns dagegen in die frühe Zeit der mechanistischen Industrialisierung zurückversetzen, etwa so um das Jahr 1870, dann landen wir ähnlich wie heute wieder in einer Umgebung, die wir Gründerzeit nennen – nur aus anderen Gründen. Und wir würden staunen, was es zu dieser frühen Zeit des damaligen Epochenwechsels alles noch nicht gab, was für uns heute selbstverständlich ist: Wir hatten zwar schon Gewerkschaften, die SPD war aber gerade erst gegründet. Es gab weder Marken- noch Patentgesetz und Bismarcks Sozialgesetzgebung war auch noch nicht in Sicht. Dafür entstand gerade das Prekariat,

6.2  Interview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische …

295

denn die technischen Errungenschaften machten die Landbevölkerung in größeren Teilen arbeitslos. In der Konsequenz verarmte sie und dieses Prekariat flutete die Städte wie beispielsweise Berlin. Diese Dynamik erst schuf die notwendige Voraussetzung für die dann massiv einsetzende Industrialisierung – günstige Arbeitskraft im Überfluss. Im Ergebnis folgte eine neue Gesellschaftsordnung, die von Wirtschaftsaufschwung und gesellschaftlichem Wandel begleitet war. Mit einem Wandel ähnlichen Ausmaßes wie zur Zeit der Industrialisierung müssen wir auch heute rechnen. Wir werden große Veränderungen gesetzlicher Rahmenbedingungen und gesellschaftlicher Ordnung erleben. Prozessoren oder Webseiten im Internet stehen dabei nicht im Kern, sind nur allererste Symptome dieser neuen Zeit. Wir werden für diesen Epochenwechsel wohl auch nicht die 50 Jahre wie zur Zeit der Industrialisierung brauchen. Es ist anzunehmen, dass sich der Wandel, mit dem wir es heute zu tun haben, viel schneller vollziehen wird. Aber dennoch sprechen wir hier von Jahrzehnten. Wir können das für die vergangenen zehn Jahre schon gut beschreiben und auch die ersten Folgen erfassen. Wenn wir das mit einem Tsunami vergleichen: Die ersten Wellen, die die kommende Riesenwelle an die Küsten spült, sind noch klein und schwach. Was dann folgt, ist aber unerbittlich und die Folgen sind massiv und im wahrsten Sinn des Worts umwälzend. Um auf die erste Gefahr zu sprechen zu kommen: Ich sehe die größte Gefahr im fehlenden Verständnis und damit in der Unterschätzung dieses Wandels. Wir sind mittendrin im Wandel, auch dann, wenn es sich so anfühlt, als würde gar nichts passieren. Aber das liegt nur daran, dass diese Veränderung eine langzyklische ist. Daher kommt das Gefühl einer Krise nicht auf, es entwickelt sich kaum Handlungsdruck. Denn es scheint ja in vielen Bereichen im Moment Bewährtes noch zu funktionieren. Nehmen Sie als Beispiel dafür das iPhone, das haben wir nun seit zehn Jahren und es ist fast unmerklich in unser Leben geschlichen, hat keine Krisen ausgelöst. Aber wenn man sich kurz überlegt, in welchen Bereichen Smartphones grundlegend das tägliche Leben und soziale Miteinander verändert haben, dann bekommt man ein Gefühl dafür, wie grundlegend diese eine Veränderung schon war und wie viel grundlegender die sein werden, die da auf uns noch zukommen. Teilweise kann das Verständnis für den Charakter dieser Veränderung auch Ängste und Befürchtungen auslösen, das ist durchaus verständlich. Vielleicht gibt es auch in Führungsetagen an der ein oder anderen Stelle so in etwa eine Haltung wie: „Für mich reicht es noch, ich bin in ein paar Jahren im Ruhestand. Soll sich die nächste Generation kümmern.“ Vor dem Hintergrund der Lebensleistung dieser aktuell aktiven Generation kann ich das teilweise auch nachvollziehen. Aber das wäre natürlich fatal, denn genau diese Führungspersonen mit ihrem Standing, ihrer Erfahrung, haben im Grunde auch wenig zu verlieren. Sie könnten sich hier mit voller Kraft einbringen und die notwendigen Risiken mit mehr Autorität in Angriff nehmen. Jemandem, der stattdessen erst am Anfang der eigenen Karriere steht und sich erst noch beweisen muss, wird es schwerer fallen, genau diese Risiken einzugehen oder den Spielraum dafür zu erhalten. Kommen wir zur zweiten Gefahr, die daraus resultiert, dass wir zwar Änderungen wahrnehmen, aber nicht auf sie reagieren. Das Problem ist bekannt: ­Entscheidungstheoretiker haben uns gezeigt, dass Risiken nicht nach ihrer absoluten Höhe, sondern relativ zum be-

296

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

stehenden Besitzstand bewertet werden. Deutschland wurde in der mechanistischen Industrieordnung so etwas wie ein Weltmeister, es agierte eben sehr erfolgreich. Ein reiches Land hat auch viel zu verlieren. Uns mag es an der ein oder anderen Stelle unvernünftig und zu riskant erscheinen, in etwas zu investieren, dessen Rendite man noch nicht kennt, dessen Erfolgschancen man noch nicht einschätzen kann. Aber schauen wir auf das Ruhrgebiet. Es war einmal das produktivste Industriezentrum Europas. Heute ist es eine fast deindustrialisierte Zone, weil dort die ansässigen Stahlunternehmen ihr Geschäftsmodell bis hart an die Grenzen des Möglichen durchgezogen haben, statt rechtzeitig auf den scheinbar so risikoreichen Wandel zu setzen. Das ist ja mittlerweile auch vielfältig und sehr detailliert untersucht worden. Wir sollten das als Warnung verstehen. Es ist nicht völlig ausgeschlossen, dass unsere Automobilindustrie eine ganz ähnliche Entwicklung nimmt wie die Minen- und Stahlindustrie im Ruhrgebiet. Sie sehen also die Gefahr, dass der verpasste Strukturwandel im Ruhrgebiet sich auf anderer Ebene wiederholen könnte? Durchaus, wir haben eine Menge Unternehmen in Deutschland, die aktuell eine Sonderkonjunktur erleben und die aktuelle Nachfrage kaum bedienen können. Sie befinden sich auf dem Höhepunkt des industriellen, mechanistischen Zeitalters. Die Kehrseite der Medaille: Schlimmstenfalls null Euro Investition in eine alternative Zukunft. Und das passiert, obwohl viele Unternehmen wissen oder wissen könnten, dass das eigene Produkt beispielsweise aufgrund der kommenden Elektromobilität zu 100 % obsolet sein wird. Das gilt z. B. für Zahnräder in Getrieben von Pkw und Lkw. Natürlich arbeiten marktführende, börsennotierte Unternehmen wie Daimler, BMW oder Siemens auch daran, sich umzuorientieren. Aber in der Breite unserer Industrielandschaft sieht das in Teilen deutlich anders aus. Die Wirtschaftsforscher warnen ja derzeit intensiv, dass beim Thema Digitalisierung eine große Schere aufgeht zwischen den internationalen Großunternehmen auf der einen und dem Mittelstand auf der anderen Seite. Betrachten wir die Automobilindustrie. Von meinen Reisen und der Arbeit in Kalifornien und China nehme ich den Eindruck mit, dass wesentliche Eckpunkte zukünftiger Mobilität schon entschieden sind. Zumindest innerstädtisch scheint die Zukunft der Elektromobilität und den Flottenfahrzeugen zu gehören. Und das ist keine Zukunftsmusik mehr: Innenstädte werden überwiegend deindividualisiert und nahezu völlig zu einer Zone, in der individuelle Mobilität mit Flottenfahrzeugen bewerkstelligt wird, darunter Fahrräder, Scooter, schienengebundene Fahrzeuge oder auch autonome People Mover. Und das dauert keine 20 Jahre mehr, eher fünf bis zehn. Nur in Deutschland tun wir in Teilen noch so, als könnten wir diese Entwicklung aufhalten, als wäre hier noch Zeit und Raum für eine Debatte. Der Hinweis auf die Verluste von Tesla kommt uns da sehr gelegen. Genau so ist auch Nokia untergegangen, genau so hat Steve Ballmer das Potenzial des iPhone verkannt. Und gerade einmal zehn Jahr später kennen wir das Ergebnis. Die Marschroute ist also bereits festgelegt: Wir müssen jetzt investieren, auch wenn wir noch nicht wissen, wie wir mit Elektromobilität Geld verdienen können, auch wenn wir noch nicht wissen, wie wir die vielen technischen Herausforderungen lösen können. Wenn wir

6.2  Interview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische …

297

das jetzt nicht tun, werden wir sehr spät dran sein und haben eine gute Wahrscheinlichkeit, zu spät dran zu sein, weil andere das alles schon herausgefunden haben. Diese Haltung, jetzt zu handeln, mutig die Zukunft zu gestalten, scheint mir gerade für unsere häufig als Leitindustrie gesehene Automobilindustrie ganz wesentlich. Was wir in Deutschland gebrauchen könnten, wären Rahmenbedingungen über Gesetzgebung und Regulierung, die die Investition beispielsweise in Elektromobilität unausweichlich macht, ähnlich wie bei der Energiewende, denn im Markt ist es eben so, dass wir noch eine ganze Zeit zum Teil hohe Gewinne mit alten Technologien erzielen können. Aber dann bleibt kein Spielraum mehr, die neuen Technologien, die in der Zukunft dominant sein werden, zu gestalten. Das hat heute schon zu Abhängigkeiten geführt: Wenn Sie heute einen Elektro-­Scooter kaufen, kommt der größte Teil der Kernkomponenten davon aus China, denn in Peking dürfen schon seit einigen Jahren keine Verbrenner-Scooter mehr fahren. Dementsprechend hat China eine darauf zugeschnittene Industrie entwickelt, die mit effizienten Skalen diesen Markt dominiert. Für die Akkutechnik scheint diese Abhängigkeit auch schon breitere Teile der Elektromobilität zu betreffen. Herbert Diess, Vorsitzender des Vorstands der Volkswagen AG, hat davor unlängst gewarnt. Dennoch scheinen wir von einer Haltung bestimmt, die wichtige Entscheidungen aufschiebt: „Wir werden das schon hinkriegen, wenn wir uns nur ernsthaft darum bemühen“. Ich sehe nicht, wie wir dieses Überlegenheitsgefühl sachlich begründen könnten. Ich nehme nur wahr, dass China nach und nach industrielle Bereiche und Innovationsfelder besetzt, von denen viele noch vor einigen Jahren sagten, dass dies den Chinesen niemals gelingen wird. Lässt sich hieraus ein wiederkehrendes, typisch deutsches Handlungsmuster ableiten? Vielleicht schon. Die deutsche Fußball-Nationalmannschaft hat 2018 so schlecht abgeschnitten wie noch nie. Vielleicht kann man das zum Vergleich heranziehen. Es handelte sich um eine Mannschaft, die über zehn Jahre lang aufgebaut wurde. Im Jahr 2014 sind wir mit ihr sogar Weltmeister geworden. Auch bei der Europameisterschaft 2016 waren wir noch gut, aber auch beim Confed Cup 2017 – hier mit einer neuen Spielergeneration. Im Finale besiegte die Mannschaft Chile. Ein Jahr später steht der Bundestrainer Löw vor der Frage, mit welcher Mannschaft er in die WM geht. Setzt er auf bewährte Kräfte oder geht er das Risiko ein, auf eher größere Teile der jungen und auch erfolgreichen Confed-­Cup-­ Mannschaft zu setzen? Auf bewährte Kräfte zu setzen bedeutet, dem zu vertrauen, was sich in der Vergangenheit bewährt hat. Man nimmt an, dass sich Bewährtes mit hoher Wahrscheinlichkeit auch in der Zukunft bewähren wird. Diese Hypothese gilt allerdings nur, wenn sich die Umgebung nicht verändert. Ob das nun ein typisch deutsches Handlungsmuster ist oder nicht: Der Bundestrainer hat auf die scheinbar bewährten Kräfte gesetzt. Aber statt Finale hieß es schon sehr früh die Koffer packen. Die scheinbar sichere, risikovermeidende Entscheidung bei der Mannschaftsbesetzung war tatsächlich die mit dem denkbar höchsten Risiko! Ein schlechteres Abschneiden war schlicht und ergreifend gar nicht möglich. Was bedeutet dieses Beispiel für die industrielle Transformation? Auch in der Industrie scheint es eine gewisse Neigung zu geben, auf scheinbar Bewährtes zu

298

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

setzen und damit einen Weg einzuschlagen, der vermeintlich ohne Risiko ist. Neue Geschäftsmodelle kämen nur infrage, wenn sie mit ähnlich guten Renditen wie in der Vergangenheit winken würden. Aber wir wissen, dass diese Renditen in der derzeitigen Übergangszeit nicht möglich sind. Wir kennen kein einziges erfolgreiches Beispiel. Und während wir noch lamentieren, dass Amazon noch nie Gewinn gemacht hat, besetzt und dominiert das Unternehmen mehr und mehr Sektoren des Einzelhandels. Viele Unternehmen fühlen sich aktuell mit der Geschwindigkeit der Veränderungen überfordert oder zumindest unwohl, da Kontrolle, Planungssicherheit und Steuerbarkeit des Geschäfts als bislang verlässliche Konstanten wegfallen. Wie nehmen Sie Unternehmenslenkern ihre Sorgen? Dafür ist es nach meiner Erfahrung vor allem wichtig zu verstehen, dass diese Unsicherheit, also eben der Wegfall von Planungssicherheit und Kontrolle, ein Kernmerkmal des beschriebenen Epochenwandels ist. In der Mechanisierung und Industrialisierung war Kontrollverlust und Unsicherheit häufig ein Indikator dafür, dass etwas schiefläuft. Daher ist das für uns eher mit Unwohlsein verbunden. Im digitalen Zeitalter aber werden die Unsicherheit und der Kontrollverlust für lange Zeit unsere Begleiter bleiben. Ein guter Umgang mit Unsicherheit, die Fähigkeit, unter Unsicherheit zu entscheiden und handlungsfähig zu bleiben, wird damit eine der Schlüsselkompetenzen der neuen Zeit. Wenn man diesen Gedanken angenommen hat, kann man sich anschließend auch offener der Frage stellen, wie das genau funktionieren kann. Dann wird auch deutlich, dass es dazu wahrscheinlich neue Methoden und Verfahren braucht. Und dazu kann man dann auch in die Wissenschaft schauen, was dort in Bezug auf diese neuen Herausforderungen im Sinn von Entscheiden und Handeln entwickelt wird. In der Entscheidungstheorie beispielsweise sind diese Phänomene ganz gut beschrieben und werden als Ambiguität eingeordnet. Bei Ambiguität habe ich Unsicherheit in zwei voneinander unabhängigen Dimensionen. Da ist zum einen die Unsicherheit im Umsetzungserfolg. Also die Frage, kriegen wir das überhaupt technisch hin? Weil bei Projekten zur digitalen Transformation oder Innovation in der Regel technische Felder betreten werden, die bisher fremd sind, kann man häufig nicht gut einschätzen, wie wahrscheinlich es ist, dass ein Projekt technisch erfolgreich umgesetzt werden kann. Und dann hat man gleichzeitig, völlig unabhängig davon, die Unsicherheit über die Qualität der Marktchance. Also die Frage, was können wir damit verdienen, falls wir es denn technisch hinbekommen? Dies liegt in der Komplexität der Entwicklungen unserer Umwelt begründet, die sich dynamisch weiterentwickelt, während wir versuchen, die technische Herausforderung in den Griff zu bekommen. Für solche Situationen kennt die Entscheidungstheorie heute noch keine guten Verfahren und ganz sicher funktionieren die üblicherweise angewendeten nicht. Genau deswegen nimmt unter solchen Rahmenbedingungen die Bedeutung der Suche nach der einen, richtigen, lösungsbringenden Entscheidung dramatisch ab. Denn wir haben ja gar keine gute Entscheidungsgrundlage mehr und können so auch kaum sichergehen, Richtiges von Falschem oder auch nur Besseres von Schlechterem gut unterscheiden zu können. Stattdessen ist es viel wichtiger, frühzeitig ins Handeln zu kommen. Denn nur über Handeln können

6.2  Interview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische …

299

wir neues Wissen gewinnen und mit diesem neuen Wissen die Unsicherheit reduzieren. Und dann werden wir auch wieder entscheidungsfähiger. Dieses Vorgehen ist von Entscheidungstheoretikern gut beschrieben worden. Es steht nur deutlich im Widerspruch zu dem, was wir als bewährt gewohnt sind: Entscheidungen und deren Vorbereitung und Abstimmung eine große Bedeutung zu geben. Das ist eines der Grundprinzipien des alten mechanistischen Zeitalters, das im Begriff ist sich aufzulösen: Weil das Maschinenzeitalter auch Organisationen als Maschinen ansah und sie wie Maschinen konzeptionierte, sind in ihnen Entscheidungen sehr wichtig. Greifen die Zahnräder nicht exakt und nach Vorgabe des Bauplans ineinander, steht die Organisation still. Wir haben Entscheidungsspielräume an Hierarchien geknüpft. Karriere, Status und Bedeutung drückt sich unter anderem dadurch aus, was ein Manager entscheiden darf. Sein Erfolg misst sich daran, dass er richtig entscheidet. Tut er das nicht, gefährdet er seinen Rang und seine Position. In der digitalen Transformation ist diese gewohnte Praxis nicht mehr möglich und das Management dementsprechend verunsichert. Aus meiner Erfahrung ist es wichtig, diese Zusammenhänge zu verstehen. Häufig fällt es dann leichter, loszulassen und neue Wege zu gehen. Ich erinnere mich dazu an ein sehr nettes Gespräch mit einem Geschäftsführer, der zu Beginn sagte: „An mir liegt es nicht. Die Leute müssen mir nur einen Business Case zeigen. Ist das überzeugend, bin ich bereit zu investieren“. Aber genau diese Voraussetzung können wir heute nicht mehr erwarten. Unternehmen und Manager müssen lernen, in Unsicherheit zu investieren. Dabei hilft es vielleicht, sich daran zurückzuerinnern, wie gut Business Cases im letzten Epochenwechsel, also etwa in der zweiten Hälfte des 19. Jahrhunderts funktioniert haben, nämlich gar nicht! Die großen Entrepreneure in Deutschland wie Siemens, Krupp oder Thyssen und in den USA wie Rockefeller, Vanderbilt oder Carnegie haben viel weniger analytisch und häufig eher intuitiv gehandelt. Genau diese unternehmerische Intuition erfährt folgerichtig derzeit wieder eine berechtigte Renaissance. Aber auch dafür gibt es natürlich Regeln, die uns die Vernunft vorschreibt. Es geht nicht darum, mit vollem Risiko loszulegen, sondern darum, gezielt mit kleinen Experimenten durch Handeln neues Wissen zu erzeugen. Erst dann wird entschieden. Dabei müssen sich die Handelnden den Worst Case immer vor Augen halten. Welchen Einsatz bin ich bereit maximal zu zahlen, um das neue Wissen in einem bestimmten Feld zu erwerben? Das ist das Prinzip der sogenannten „affordable losses“, der erträglichen Verluste, das erfolgreiche Entrepreneure auszeichnet. Wir probieren etwas aus, um daraus zu lernen. Auch dann, wenn etwas schiefgeht, sprechen wir nicht von Scheitern, sondern haben daraus gelernt. Digitale Transformation lässt sich als Multi-Change-Phänomen beschreiben. In welchem Bereich tun sich Unternehmen dabei zurzeit besonders schwer und warum? Aus meiner Sicht beschäftigt viele der Kontrollverlust. Wir als Organisationswissenschaftler halten ihn für notwendig und wünschenswert, Unternehmer fürchten ihn. Unser Verständnis von Management hat noch sehr viel mit Macht, Kontrolle und Einfluss zu tun.

300

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

In einem Umfeld von Ambiguität kann aber ein Manager genau diese Kontrolle nicht mehr so ausüben wie früher. Er muss aufgrund der Unsicherheit genauso irren, kann genauso wenig gute oder richtige Entscheidungen treffen wie seine Mitarbeiter. Also gilt es, Mitarbeiter zu kleinen Experimenten zu ermutigen, die neues Wissen generieren. Dieses Wissen gilt es dann zusammenzuführen und damit dann die Entscheidungsfähigkeit im Unternehmen zu verbessern. Damit ändert sich der Fokus der Organisation von der Output-Orientierung hin zur Lernorientierung, von der Nutzung und Verteilung bestehenden Wissens hin zur Erzeugung von neuem Wissen. Dafür ist die Umsetzung des Prinzips der dienenden Führung ganz wesentlich. Dienende Führung wird dabei von drei Kerngedanken getragen: Sinn, Autonomie und Befähigung. Sinn bedeutet, dass Mitarbeitern vom Management ein sinnstiftender Handlungsrahmen bereitgestellt werden muss, beispielsweise so etwas wie eine längerfristige unternehmerische Perspektive oder unternehmerische Herausforderung. Autonomie bedeutet, dass Mitarbeitern im Rahmen dieser längerfristigen unternehmerischen Perspektive die Autonomie zum eigenständigen, auch strategisch relevanten Handeln gegeben wird. Darin liegen verschiedene Aspekte, von der Bereitstellung der erforderlichen Ressourcen bis hin zum Ausräumen typischer Hindernisse. Und zuletzt bedeutet Befähigung, dass Mitarbeiter durch Ausbildung und Rahmenbedingungen in die Lage versetzt werden, tatsächlich diese Autonomie ausfüllen, also eigenverantwortlich und selbstständig im Sinn der übergeordneten unternehmerischen Ziele handeln zu können. Im besten Fall führt dies zu dezentralem Ausprobieren: also das Gegenteil von Kontrolle. Wer Mitarbeiter darin bestärkt, in diesem Sinn auszuprobieren, verändert das Rollenverständnis und Selbstverständnis des Managers sehr stark. Gerade dort, wo wir beispielsweise im Mittelstand ausgeprägte Hierarchien und funktionale oder starke Business-­Unit-­ Strukturen sehen, ist die Umsetzung und Akzeptanz dieser Prinzipien eine Herausforderung. Stichwort „Breaking down Silos“. Viele Unternehmen sind heute noch klassische Siloorganisationen. Wie schaffen sie es, Bereichsgrenzen abzubauen und gleichzeitig Vernetzung, Transparenz und eine neue Form von Offenheit zu fördern? Wesentlich hierfür ist es, Unternehmen von den eher kristallinen Strukturen der industriellen Organisation weg und hin zu eher fluiden Formen der Organisation weiterzuentwickeln. Ein guter Schritt in diese Richtung ist es beispielsweise, eher mehr Themen in Projekten statt in Abteilungen zu organisieren und dabei die Projektteams bereichsübergreifend, cross-funktional und divers zu besetzen. So kann man die bestehende formale Aufbauorganisation durch eine zweite Ebene einer eher informellen Netzwerkorganisation überlagern, die dann über die Zeit an Bedeutung gewinnen kann. Dafür ist aber eine Grundvoraussetzung, Ineffizienzen zuzulassen. Denn solche cross-funktionalen, diversen Projektteams stellen per se keine effizienten Strukturen dar. Projekte, die von solchen Teams gesteuert werden, brauchen meist länger und sind oft teurer. Dafür ist die Ergebnisqualität, also die Qualität im Sinn der Qualität oder Eignung der entwickelten Lösung typischerweise besser. Solche cross-funktionalen Projektteams sind also effektiver. So geht es hier dann im Grunde um die gute Balance zwischen Effizienz und

6.2  Interview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische …

301

Effektivität: Für die Entwicklung einer Lösung in der bekannten, stabilen Welt der Indus­ trialisierung ist Effizienz und Spezialisierung sehr hilfreich. Die Transformation, die wir derzeit erleben, ist aber von Unsicherheit und Ambiguität geprägt. Wir wissen also nicht, wie der kommende Zielzustand aussehen wird. Für die Entwicklung einer Lösung, d. h. eines neuen Produkts, eines neuen Services oder eines neuen Geschäftsmodells unter solchen Rahmenbedingungen ist Effizienz daher nicht so hilfreich wie Effektivität. Es ist jetzt wichtiger, die richtige Lösung zu entwickeln, als eine günstige Lösung. Nokia kann da gut als Beispiel dienen. Die waren Kostenführer und damit effizientester Hersteller von Mobiltelefonen. Dementsprechend hat Nokia mit den weltgünstigsten Mobiltelefonen gegen das neue iPhone beziehungsweise Smartphone konkurriert, mit bekanntem Ausgang. Empirisch gesehen sind daher in Zeiten der Transformation nicht die effizientesten Unternehmen die erfolgreichsten, sondern die mit dem richtigen oder ausreichenden Maß an Ineffizienz. Dabei ist natürlich zu beachten, dass maximale Ineffizienz auch kein erfolgreiches Prinzip ist. Aber das richtige Maß an Ineffizienz schafft Raum, um einen effektiven lernorientierten Arbeitsstil umzusetzen. Solange Unternehmen diesen Raum nicht bereitstellen, wird es in der Transformation immer schwieriger werden. Wenn man in diesem Sinn mehr und mehr auf die Umsetzung von Aufgaben in Projekten übergeht, ist es gleichzeitig wichtig, die Organisation nicht mit Projekten zu überladen. So ist es beispielsweise wichtig, Routinen dafür zu entwickeln, Projekte auf eine für alle Beteiligten transparente und akzeptierte Art und Weise abzubrechen. Da sind wir wieder zurück bei dem schon angesprochenen neuen Blick auf Entscheidungen: Wir neigen heute noch dazu, die Richtigkeit der ursprünglichen Projektentscheidung dadurch bestätigen zu wollen, dass wir Projekte auf Biegen und Brechen zum einmal vorgesehenen Ende führen. Abgebrochene Projekte gelten als Misserfolg oder Indikator für eine falsche Entscheidung. Dabei können Projekte auch dazu dienen, neues Wissen zu generieren und dieses neue Wissen mag dann zu anderen Entscheidungen, unter anderem auch zum Abbruch von Projekten führen. In dem Sinn beobachten wir in der Praxis, dass es sehr wichtig und ein stückweit eine unterschätzte Kunst ist, gut darin zu sein, zu entscheiden, was man nicht mehr weiter macht. Was glauben Sie, welche digitalen Schlüsselkompetenzen Unternehmen besitzen oder entwickeln sollten, um im digitalen Wettbewerb mithalten zu können? Und welche Kategorien spielen eine Rolle? Häufig stehen in Unternehmen eher technische Kompetenzen im Mittelpunkt der Diskussion. Und das sind sicher notwendige Voraussetzungen für Erfolg in der digitalen Transformation. Dabei reden wir beispielsweise über Kompetenz in Algorithmen und Datenverarbeitung oder über Softwareentwicklung, die Kern der eigenen Wertschöpfung sein sollte. Aus unserer Sicht und praktischen Erfahrung in Unternehmen ist jedoch die notwendige individuelle Veränderungsintelligenz, geprägt beispielsweise durch Selbstreflexion und eine neugierig erkundende Grundhaltung sowie die organisationalen Fähigkeiten, sehr viel wichtiger und herausfordernder. Bei diesen organisationalen Fähigkeiten geht es beispielsweise um Innovation und Veränderungsfähigkeit, die schon angesprochene Kommunikation und Zusammenarbeit in Netzwerken, Vielfalt in der Besetzung

302

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

von Teams und Positionen oder eine innovationsförderliche Fehlerkultur, bei der kleine Fehler gewünscht sind und große Fehler toleriert werden. Daher haben wir zu den Themenfeldern der notwendigen individuellen und organisationalen Fähigkeiten ein umfangreiches Handbuch Veränderungsintelligenz veröffentlicht. Da hierbei die Toleranz für große Fehler häufig eine Herausforderung zu sein scheint und gleichzeitig sehr wichtig ist, möchte ich dazu ein konkretes Beispiel aus meinem eigenen Umfeld geben, um deutlich zu machen, was wir damit meinen: Als Forschungsinstitut bestreiten wir einen größeren Teil unserer Finanzierung über Forschungsgelder. Vor Kurzem waren wir aufgefordert, einen Antrag einzureichen, der rund 30% unseres Jahresbudgets ausmacht. Wenn ich mich da selbst sehr stark einbringe, hätte ich unsere Chancen aufgrund der Vorabstimmungen als recht hoch bis ziemlich sicher eingeschätzt. Aber einer meiner Mitarbeiter hatte eine Idee, diesen Antrag anders zu gestalten, wie ich das gewöhnlich tun würde. Wie verhalte ich mich? Wird der Antrag abgelehnt, fehlen uns 30 % im Budget und ich kann obendrein auch keinen zweiten Back-up-Antrag stellen. Denn wenn beide bewilligt würden, könnten wir die zugesagte Forschung nicht bewältigen. Gleichzeitig bin ich mir sicher, dass meine Mitarbeiter gut ausgebildet werden, sie kompetent sind, wissen, was sie tun und sich dabei zu 100 % einbringen. Ich muss hier loslassen, den Kontrollverlust ertragen, denn alles, was ich oben über die Transformation gesagt habe, steht hier auf dem Prüfstand. Und ich kann aus dieser konkreten eigenen Erfahrung sagen, das ist alles andere als angenehm, denn wäre der Antrag nicht bewilligt worden, wäre das der Kategorie „großer Fehler“ zuzuordnen gewesen. Übertragen auf Unternehmen heißt das: Bin ich als Manager bereit, Freiraum zu geben, Kontrollverlust zuzulassen, auch wenn meine eigene Reputation oder größere negative Auswirkungen auf dem Spiel stehen? Vertraue ich meinen eigenen, vielleicht auf Sicherheit orientierten Entscheidungen mehr als den Entscheidungen meiner Mitarbeiter? Ganz natürlich scheuen wir hier vielleicht eher das Risiko und hegen Bedenken, genau wie es mir in der Situation mit dem Forschungsantrag auch ging. Aber wenn ich will, dass Mitarbeiter aktiv mitgestalten, Verantwortung übernehmen und sich mit ihren Ideen einbringen, muss ich auch solchen Fehlern gegenüber mindestens tolerant sein. In einem Forschungsinstitut habe ich da im Grunde gar keine Wahl, weil wir ohne die Beiträge der Mitarbeiter gar keine Forschung machen können. Also hat der Mitarbeiter den Antrag gänzlich eigenverantwortlich erstellt und Gott sei Dank am Ende auch erfolgreich eingereicht. Der technische Fortschritt – gerade in den letzten beiden Jahrzehnten – erzeugt einen ständig zunehmenden Anpassungsdruck. Wie lange halten wir Menschen diesem Druck eigentlich noch stand? Anpassungsfähigkeit scheint grundsätzlich so etwas wie die herausragendste Eigenschaft des Menschen zu sein. Das hat uns über die lange Zeit der Evolution ausgezeichnet. Also müssten wir uns in der Beziehung eigentlich keine Sorgen machen. Aber richtig ist, dass heute vielerorts aufgrund der digitalen Transformation ein zunehmender und zunehmend unerträglich werdender Druck verspürt wird. Aus unserer Sicht liegt viel von diesem

6.2  Interview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische …

303

Druck darin begründet, dass wir mehr und mehr Teile der industriellen Organisation durch Roboter und Computer darstellen, den Menschen in dieser Organisation aber noch keinen neuen Platz zugewiesen haben. Beispielsweise werden klassische Fabrikationsprozesse, die wir seit Webstuhl und Ford-Werken kennen, mehr und mehr von Robotern und Computern übernommen. Amazon hat Aufsehen damit erregt, dass deren Ladengeschäfte ohne Mitarbeiter an den Kassen auskommen. In der Konsequenz resultiert scheinbar ein Verdrängungswettbewerb zwischen Computer und Menschen, der für den Mensch wenig aussichtsreich scheint, denn ganz sicher werden Menschen nicht die besseren Roboter. Epochale Zeitenwechsel sind ganz wesentlich durch eine Reflexion gekennzeichnet, was uns als Menschen ausmacht, was Menschsein in der neuen Gesellschaftsordnung bedeuten soll. Im Moment schreiben wir dazu nur die Rolle des Menschen in der Industrialisierung fort, eben nur mit anderen Mitteln und dem Ergebnis, dass wir uns als Menschen dabei tendenziell ungeeignet vorkommen. Wir werden der digitalen Transformation aber deutlich entspannter begegnen und die Chancen, die darin liegen, besser erkennen können, wenn wir die Paradigmen der Industrialisierung loslassen. Stattdessen sollten wir vielfältiger und breiter als bisher diskutieren, wie die neue Rolle des Menschen im digitalen Zeitalter aussehen soll. Hier erleben die treibenden Gedanken des Zeitalters der Aufklärung, beispielsweise der Gedanke einer humanistischen Emanzipation ganz aktuell eine Renaissance unter Soziologen und Zukunftsforschern. Die Aufklärung ist zwar ein vielschichtiger Epochenbegriff, aber man kann wohl sagen, dass am Ende des 18. Jahrhunderts das Individuum gegenüber kirchlichen und staatlichen Institutionen an Autonomie deutlich hinzugewonnen hatte. Im Zuge der Industrialisierung dagegen wurde der Mensch, zumindest in der Arbeitswelt zu einer Art Zahnrad der Organisationsmaschinerie degradiert. Das dahinterstehende Prinzip war: Je mehr der Mensch wie eine Maschine funktioniert, desto besser funktioniert die Organisationsmaschinerie. Wir müssen in diesem Epochenwechsel daher neu überlegen, was unser Menschsein ausmacht und wie wir uns in der Arbeitswelt neu verorten wollen. Im Ergebnis, da bin ich mir sicher, wird der Mensch auch zukünftig in der Arbeitswelt einen Platz finden, aber einen anderen als heute. Die Rolle des Menschen in der zukünftigen Arbeitswelt wird aus unserer Sicht weniger geprägt sein durch regelbasiertes Arbeiten, Muster sich wiederholender Tätigkeiten. Gerade diese Tätigkeiten, egal ob in der Produktion oder bei Dienstleistungen, wie beispielsweise Steuer- oder Rechtberatung, werden eher durch Roboter und Computer übernommen. Der Mensch wird seinen Platz eher dort finden, wo Kontextsensitivität, Achtsamkeit, Intuition, Flexibilität und Anpassungsfähigkeit eine wichtige Rolle spielen. Denn so etwas wie Intuition bei Robotern oder einer wie auch immer ausgeprägten Maschinenintelligenz wird es wohl in naher Zukunft noch nicht geben. Was glauben Sie, in welchem Jahr künstliche Intelligenz uns Menschen überholt haben wird, sodass wir ohne technische Hilfsmittel nicht mehr in der Lage sein werden, diese zu verstehen? Sich mit Zukunftsszenarien zu beschäftigen, ist eine delikate Thematik, denn die Zukunft hat die unangenehme Eigenschaft, höchst unsicher zu sein. Was in dem Kontext die Frage

304

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

angeht, wann uns Menschen die künstliche Intelligenz überholen wird, also wann die sogenannte Singularität eintritt, gibt es auch dazu ganz natürlich sehr unterschiedliche Prognosen. Aus meiner Sicht verengt diese Überlegung jedoch den Blick auf die Zukunft auf einen Einzelaspekt und lenkt so ein stückweit unseren Blick ab von den wesentlichen Gestaltungsfragen, die schon heute vor uns liegen. Gleichzeitig kann diese Betrachtung den Eindruck nahelegen, dass wir diese Entwicklung gar nicht beeinflussen könnten, wir nur Passagiere einer schaurig schönen Geisterbahn wären. Es ist ja im Grunde schon heute ein stückweit so, dass wir die Ergebnisse oder Effekte von KI teilweise nicht voll erklären können. Natürlich verstehen wir die dahinter liegenden technischen Prinzipien, die Algorithmen und Arbeitsweisen. Algorithmen, die an Trainingsdaten lernen, führen jedoch immer wieder zu KI-Systemen, die sich teils nicht intuitiv, unerwartet und überraschend verhalten. Das liegt in der Natur der Sache. Deep Learning und ähnliche Mechanismen produzieren im Ergebnis sehr mächtige Black Boxes. Deren Verhalten können wir deskriptiv beschreiben, aber nicht analytisch beziehungsweise deterministisch durchdringen. Es ist nach meiner Wahrnehmung diese unvermeidliche Natur der KI, als Black Box daherzukommen, verbunden mit den gerade in den letzten zwei, drei Jahren auch in der breiten Öffentlichkeit wahrgenommenen, quantensprungarten Fortschritten in der Leistungsfähigkeit von KI-Systemen, die heute ein stückweit das Unwohlsein erzeugen, das die Diskussion um den möglichen Zeitpunkt der Singularität anfachen. Ein weiterer Teil des vielleicht auch zunehmenden Unwohlseins mit KI-Systemen scheint mir in der Frage zu liegen, ob wir als Menschen denn überhaupt noch kontrollieren können, was in bzw. durch solche KI-Systeme geschieht. Da kann es um Fragen der Ethik gehen, man denke nur an mögliche tödliche Unfälle mit autonomen Fahrzeugen oder auch um Fragen gesellschaftlicher Wertebildung, wenn man beispielsweise an Aspekte der Gleichstellung der Geschlechter denkt. In dieser Kontrolle liegen aus meiner Sicht heute bereits wichtige Gestaltungsfragen, an denen Prognosen über das Eintreten einer Singularität ziemlich weit vorbeigehen. Wir können uns diesen Gestaltungsfragen besser nähern, wenn wir uns überlegen, was uns am Ende das Gefühl von Kontrolle zurückgeben kann. Denn wir haben ja schon in der Vergangenheit Systeme entwickelt, die sich mehr oder weniger einer direkten Kontrolle entzogen haben. Denken Sie an Autos oder Flugzeuge. Hier sind es die Gesetze der Physik, die verhindern, dass wir diese Systeme völlig kontrollieren können. Daher gibt es, Gott sei Dank selten, aber immer wieder tragische Unfälle. Um das zu verhindern, haben wir Mechanismen entwickelt, die die Auswirkungen solcher Unfälle begrenzen. Dazu gehören die Entwicklung der Vorschriften zur passiven Sicherheit von Autos oder die Entwicklung der Flugsicherungs- und Zulassungsbehörden. Auch für Daten, Algorithmen, Roboter und autonome Systeme werden wir solche Mechanismen und Institutionen entwickeln müssen. Das wird, ähnlich wie bei Autos und Flugzeugen, erst die Tür zur Omnipräsenz dieser Systeme öffnen, die von vielen vorausgesehen wird. Lassen Sie mich mit einer etwas historischen Analogie schließen. Die Indianer Nordamerikas waren angesichts der für sie ungewohnten, hohen Reisegeschwindigkeit der Ei-

6.2  Interview mit Prof. Dr. Guido H. Baltes, Direktor am Institut für Strategische …

305

senbahn der Meinung: So zu reisen sei gefährlich, denn die Seele könne bei der Geschwindigkeit nicht mithalten. Heute neigen wir dazu, das zu belächeln. Dabei verhalten wir uns angesichts des Tempos der digitalen Transformation vielleicht gar nicht so sehr anders als die Indianer zu deren Zeit. Die Menschen in 100 Jahren werden darüber aber treffender urteilen können, als wir das heute selbst in der Lage sind zu tun.

Kurzprofil Prof. Dr.-Ing. Guido H. Baltes

Direktor Institut für Strategische Innovation und Technologiemanagement

Prof. Dr.-Ing. Guido H. Baltes ist Direktor des IST Innovationsinstituts in Konstanz, Gastprofessor an der UIBE Universität in Bejing und der Rady School of Management an der University of California in San Diego. Als Experte in strategischer Transformation und Innovation kombiniert er Unternehmens- und Unternehmererfahrung mit international renommierter Forschung: Er war verantwortlich für Strategie & Marketing in der Geschäftsführung eines Top3-IT-Serviceunternehmens in Deutschland und hat als (Mit-)Gründer mehrere Start-ups erfolgreich aufgebaut – unter anderem Coliquio, die größte Mediziner-Community im deutschsprachigen Raum und zuletzt Unisphere, ein Start-up, das Flight Management für hochfliegende Drohnen bereitstellt. Als Mentor unterstützt er Gründer an den Hochschulen Konstanz' und das Start-up Bootcamp des Entrepreneurship Center der University of California Berkeley. Seit 2009 fokussiert er in der Forschung auf Gestaltungsfragen im Kontext von strategischer Innovation und Corporate Entrepreneurship. Vor dem Hintergrund unterstützt er regelmäßig Unternehmen in der Umsetzung innovationsorientierter Wachstumsstrategien und ihrer digitalen Transformation. Er ist vielfacher Autor international referierter Journal- und Buchbeiträge. Zuletzt hat er gemeinsam mit Antje Freyth bei Springer Gabler das Standardwerk Veränderungsintelligenz veröffentlicht.

306

6.3

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Interview mit Kai Diekmann, Journalist und Entrepreneur

Herr Diekmann, die Medienwelt transformiert sich seit langer Zeit. Was waren für Sie die bislang prägendsten Erfahrungen? Wir haben immer geglaubt, dass die Disruption der Medienbranche stattgefunden hat, als die Menschen nicht mehr allein beim physischen Medium geblieben sind, sondern damit angefangen haben, Inhalte digital zu konsumieren. Weil die digitalen Inhalte kostenlos gewesen sind, hat das die Branche massiv getroffen. Besonders, weil die Vertriebserlöse verloren gegangen sind. Aber wir sind dort einem Irrtum unterlegen gewesen, dass dies die entscheidende Disruption gewesen ist. Es ist ja auch gelungen, mit Paywalls den Umsatzrückgang teilweise aufzufangen. Und natürlich hat die Digitalisierung der Medienbranche auf der Kostenseite zu Entlastungen geführt, was beispielsweise die physische Produktion oder den Vertrieb von Zeitschriften und Zeitungen angeht. Viel dramatischer im Prozess der Digitalisierung ist die Machtverschiebung von klassischen Medien hin zu den sozialen Medien: Es geht um die Gatekeeper-Funktion – wer hat mit welchen Inhalten Zugang zum Massenpublikum? Die sozialen Medien bieten die Infrastruktur, die ich brauche, um ein Massenpublikum zu erreichen. Das ist die wirklich dramatische Entwicklung, weil sie die Medienbranche im Kern ihres Selbstverständnisses trifft. Bestes Beispiel ist Donald Trump – ob ich das nun mag oder nicht. Trump hat auf Twitter 58 Millionen Follower. Und damit mehr als der größte amerikanische TV-Sender CNN auf dem gleichen Kanal. Die Berichterstattung beschränkt sich dort immer häufiger darauf, Screenshots seiner Tweets zu zeigen. In Deutschland ist die Zahl der Zeitungskäufer in den letzten zehn Jahren von 28 Millionen auf heute unter 15 Millionen geschrumpft. Entgegen stehen 32  Millionen Deutsche, die Facebook nutzen. Und dabei rede ich noch nicht einmal über den Paradigmenwechsel in der Mediennutzung. Ich bin Jahrgang 1964, aufgewachsen mit fixen Informationsritualen und einem sehr linearen Medienkonsum. Ich habe gelernt, diejenigen Inhalte herausfiltern, die für mich interessant oder relevant sind. Wenn ich allerdings auf Instagram oder Facebook medial sozialisiert werde, dann lerne ich das nicht mehr. Dort übernimmt ein Algorithmus diese Aufgabe. Und entscheidet für mich, welche Inhalte ich sehe und welche mir gefallen. Was dort erscheint, ist für mich relevant. Was dort nicht erscheint, hat keine Relevanz mehr. Von Pull zu Push. Die Welt der Medien ist viel mehr durcheinandergeschüttelt worden als nur in der Disruption des Geschäftsmodells – die wesentliche Rolle als Herr über den Zugang zu einem Massenpublikum ist weg. Vor den Medien hat es ja die Musikbranche erwischt – die Digitalisierung hat die physischen Tonträger überflüssig gemacht. Digitalisierung ist Entmaterialisierung. Aus Physis werden Bits und Bytes – in der Musikindustrie genauso wie in der Medienindustrie. Aber in der Medienindustrie ist die Veränderung eben noch einen Schritt weiter gegangen: Nicht nur das Geschäftsmodell ist bei den Medien auf den Kopf gestellt worden, sondern vor allem die Kontrolle über den Zugang zum P ­ ublikum. Vor Jahren waren Sie für einige Zeit im Silicon Valley. Was ist geblieben, wovon zehren Sie noch heute? Vor allem bin ich seither felsenfest davon überzeugt, dass, wenn jemand glauben sollte, dass es irgendwelche Industrien geben könnte, die nicht digitalisiert werden, dies ein voll-

6.3  Interview mit Kai Diekmann, Journalist und Entrepreneur

307

kommener Irrglaube ist. Es wird kein Lebensbereich verschont bleiben. Die Digitalisierung wird von Grund auf alles verändern, wie wir heute leben. Der Innovationsrhythmus ist radikal kürzer geworden, Regulierung kommt da gar nicht mehr mit. Die Gewissheiten von gestern gelten nicht mehr, Lebensgewohnheiten ändern sich dramatisch. Ein Beispiel: Die Automobilindustrie lebt noch viel zu sehr in der Vorstellung meiner Generation: Mit 18 wollten wir Freiheit und Unabhängigkeit – und damit verbunden, ein eigenes Auto besitzen. Den jungen Menschen geht es heute darum, günstig von A nach B zu kommen, der Wunsch nach einem eigenen Auto spielt nur noch eine untergeordnete Rolle. Die Autoindustrie ist eine deutsche Schlüsselindustrie und steht damit vor einem verdammt großen Problem. Oder Fernsehen: An dem Tag, als bei uns zu Hause Netflix und Apple TV angeschlossen wurden, war das lineare Fernsehen vorbei. Meinen Kindern ist noch nicht mal aufgefallen, dass eine Reihe von klassischen TV-Sendern nicht mal mehr über die Fernbedienung aufzurufen sind. Für einen Millennial ist die Vorstellung, noch an irgendein festes Zeitraster gebunden zu sein, wenn es darum geht, Inhalte abzurufen, eine völlig absurde Vorstellung. Ich höre immer wieder, dass es ganz bestimmt zu Gegenbewegungen komme – wie zum Beispiel, dass die Schallplatte ihre Renaissance feiert. Ja. In der Nische! Es gibt auch Oldtimer. Und es werden Pferde geritten. Aber ich reite nicht mehr mit dem Pferd ins Büro. Welches Digitalunternehmen ist derzeit für Sie das spannendste und warum? Also ich finde ein Unternehmen besonders faszinierend – und das ist Amazon. Kaum ein anderes Unternehmen verfügt über so viele Daten wie Amazon – und ist damit in der Lage, Konsumentenwünsche vorherzusagen, von denen die Kunden noch nicht einmal wissen, dass sie sie haben. Als digitales Unternehmen aus dem Online-Handel kommend, expandiert Amazon jetzt zurück in die reale Welt und hat Whole Foods [Anm. Whole Foods ist eine hochpreisige Biosupermarktkette für ökobewusste Großstädter] gekauft. Am gleichen Tag ist der Börsenwert von Amazon um einen höheren Betrag angestiegen, als sie gleichzeitig für Whole Foods ausgegeben haben. Amazon hat mit Bücherversand angefangen, heute gibt es kaum noch Bereiche, in denen das Unternehmen nicht experimentiert: Werbung, Medien, jetzt auch Pharma. Aktuell macht Amazon 47 % des kompletten Online-­ Handels in den USA aus. Warum nicht auch irgendwann 100 %? Vor uns liegt das superintelligente Zeitalter der Maschinenintelligenz. Wie könnte ein Change gelingen, aus dem möglichst viele Gewinner erwachsen? Es gibt viele Szenarien, die einen massiven Wegfall von menschlicher Arbeitskraft voraussagen. Na und. Dann arbeiten wir halt nur 20 Stunden, sind aber in diesen 20 Stunden ungeheuer effizient. Mit der industriellen Revolution ist menschliche Arbeitskraft, vor allem Körperkraft, zum ersten Mal erheblich entwertet und durch Maschinen ersetzt worden. Künstliche Intelligenz wird das jetzt ebenfalls tun – und zwar in den Bereichen, in denen bisher intellektuelle Leistung gefragt gewesen ist. Rechtsanwälte zum Beispiel müssen sich in bestimmten Bereichen von Algorithmen inzwischen schlagen lassen: An der Stanford University sind 20 erfahrene Wirtschaftsanwälte in einem Experiment gegen künstliche Intelligenz angetreten. Die Aufgabe bestand darin, fünf umfangreiche Vertragsentwürfe zu ana-

308

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

lysieren und 30 Legal Issues zu identifizieren. Die Anwälte erreichten dabei eine Genauigkeit von 85 % und brauchten im Schnitt 92 Minuten, um die Aufgabe zu lösen. Der Algorithmus schaffte 95 % Genauigkeit – und brauchte dafür nur 26 Sekunden. Das macht Anwälte oder Ärzte oder wen auch immer aber nicht überflüssig, im Gegenteil, es macht sie besser: Künstliche Intelligenz wird uns bei repetitiven Aufgaben entlasten. KI wird Standardaufgaben besser erledigen und den Freiraum schaffen, sich wirklich auf die eigentlichen Herausforderungen zu konzentrieren. Ich bin optimistisch, dass KI uns in vielen Bereichen von für uns wenig interessanten Aufgaben befreien wird. Zuletzt wurde sogar beinahe ein Literaturwettbewerb von einem Algorithmus gewonnen [Anm. mit dem Titel Der Tag, an dem ein Computer einen Roman schreibt]. Es ist davon auszugehen, dass in acht Jahren ein von einem Algorithmus geschriebener Musiktitel in den Top 10 landet. So ist es nun mal: „Software eats the world“. Aber am Ende hat sich in der Geschichte immer nur Technologie durchgesetzt, die das Leben besser gemacht hat. Wir werden über 100 Jahre alt und müssen nicht mehr 100 Stunden die Woche auf den Feldern arbeiten. Deshalb bin ich zuversichtlich, dass auch die neuen Technologien unsere Lebensqualität weiter verbessern werden. Zur erfolgreichen Transformation gehört auch die Geschäftsmodelltransformation und damit der Umbau des klassischen Geschäftsmodells. Worauf sollten Unternehmenslenker achten? Transformation ist immer Veränderung. Und die beginnt in den Köpfen. Ich muss mir im Klaren sein, dass künftig nichts mehr so sein wird, wie es war. Ich muss bereit sein, mein jetzt noch erfolgreiches Geschäftsmodell ins Risiko zu stellen, wenn ich auch morgen noch ein Geschäftsmodell haben möchte. Ich muss bereit sein, mich selbst zu kannibalisieren. Dieter Zetsche hat es bei Daimler vorgemacht: In den USA hat Daimler eine App gebaut, auf der ich mein Auto konfigurieren, bestellen und finanzieren kann. Die Autohäuser in USA waren darüber natürlich besonders begeistert. Und dann hat Daimler diese Plattform auch noch für andere Hersteller geöffnet. Aber genau das war ein wichtiger Schritt – selbst, wenn ich meinen Autohäusern Kunden wegnehme. Die Kunden vergleichen auf der Plattform Mercedes mit Ford und fragen sich, ob die Unterschiede denn 5000 Dollar wert sind – das ist eine sehr bequeme Lösung für den Kunden – und Daimler behält auf jeden Fall die Kundenbeziehung. Wir bei BILD sind die digitale Transformation auch radikal angegangen – wir haben das digitale Angebot zugänglicher und attraktiver gemacht und den physischen Niedergang der gedruckten Zeitung damit bewusst beschleunigt. Das hat dafür gesorgt, dass BILD heute in der digitalen Welt über die höchste Reichweite verfügt, die die Marke BILD je in seiner Geschichte erreicht hat. Der technische Fortschritt erzeugt zurzeit einen enormen Anpassungsdruck, der viele beunruhigt. Wie lange halten wir Menschen diesem Druck noch stand? Als die Eisenbahn erfunden wurde, gab es eine Menge Bedenken, wie der menschliche Körper auf die Geschwindigkeit reagieren wird, ob nicht ab 30  Stundenkilometern alle Trommelfelle platzen werden. Denn so schnell hatte sich bis zu diesem Zeitpunkt noch

6.3  Interview mit Kai Diekmann, Journalist und Entrepreneur

309

kein Mensch fortbewegt. Wir leben heute in einer schnelleren Welt als unsere Eltern. Und unsere Eltern lebten in einer schnelleren als unsere Großeltern. Ich glaube, dass wir über eine große Anpassungsfähigkeit verfügen. Und wenn ich mir anschaue, wie meine Kinder – ich habe vier davon – damit aufwachsen, mache ich mir keine Sorgen. Es sind möglicherweise andere Talente gefordert. Lebenslanges Lernen wird wichtiger denn je sein. Ich bin überzeugt, dass die Digital Natives mit den zukünftigen Herausforderungen hervorragend umzugehen wissen. Was glauben Sie, in welchem Jahr die künstliche Intelligenz uns Menschen überholt, sodass wir ohne technische Hilfsmittel nicht mehr in der Lage sind, sie zu verstehen? Was ich im Silicon Valley gelernt habe ist, dass es sehr gefährlich ist, Vorhersagen zu machen – vor allem solche, die die Zukunft betreffen. Daran halte ich mich. Kurzprofil Kai Diekmann

Journalist, Founder, Entrepreneur

Kai Diekmann wurde 1964 in Ravensburg geboren. Bis Januar 2017 war er Herausgeber von BILD. Zuvor war er 15 Jahre lang BILD-Chefredakteur. BILD ist eine der größten News-Marken in Europa und erreicht jeden Monat 39 Millionen Leser und Nutzer mit der BILD-Zeitung und bild.de. In den Jahren 2012 und 2013 verbrachte Kai Diekmann zehn Monate im Silicon Valley, um an der Westküste der USA im Auftrag von Axel Springer neue unternehmerische Ideen für digitales Wachstum zu entwickeln. Kai Diekmann ist seit 2004 unabhängiges Mitglied des Board of Directors von Hürriyet, Non-Executive Director der Londoner Times seit 2011 und seit 2017 Mitglied im Public Policy Advisory Board, UBER, San Francisco. Seit November 2017 ist er außerdem Vorsitzender des Freundeskreis Yad Vashem in Deutschland e. V. Kai Diekmann ist heute Gründer und Gesellschafter des Deutschen Zukunftsfonds und des Social-Media-Unternehmen Storymachine. Diekmann ist Autor und Herausgeber mehrerer Bücher. Er ist verheiratet und Vater von vier Kindern.

310

6.4

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

I nterview mit Dr. Stefan Kohn, VP T-Gallery bei Deutsche Telekom

Stefan, Du bist seit vielen Jahren verantwortlich für die Design Gallery der Deutsche Telekom, in der Visionen sichtbar gemacht werden und Zukunft sinnlich erfahrbar gemacht wird. Was ist das nächste große Ding? Für Deutschland ist das nächste große Ding die künstliche Intelligenz – und zwar über alle Branchen hinweg. KI besitzt ein ganz großes transformatives Potenzial. Sie wird radikal verändern, wie wir leben und arbeiten. Die entscheidende Frage, die wir daher beantworten müssen, ist, welche Rolle wir dabei spielen wollen und wie wir uns in Deutschland in Abgrenzung zu USA und Asien positionieren. Denn beide Regionen sind bereits in der Anwendung viel weiter als wir. Auch wenn einige Kritiker sagen, dass der KI-Zug bereits abgefahren ist, glaube ich, dass wir in Deutschland eine gute Grundlagenforschung und Ausgangsposition haben, die uns dabei helfen kann, eine zukünftig starke Position einzunehmen. Die Art und Weise, wie wir mit Technologie umgehen, wird uns unterscheiden. Da findet auch das Thema Ethik, das mich gerade treibt, Anwendung. Die Amerikaner machen es derzeit unreguliert. Das führt bei uns zu Abhängigkeiten und Risiken. Die Asiaten sind technologisch gesehen zumindest genauso gut. Aber sie machen es komplett reguliert. Über ihren Bürger-Score wird jeder Chinese mithilfe von Technologie nach einem Punktesystem bewertet und incentiviert. Wir müssen uns Gedanken machen, wie wir die KI-Technologie sinnvoll für unsere Zwecke nutzen können, um auf dem Weltmarkt eine führende Rolle einzunehmen. Die Mittelständler können nicht ihre eigene KI entwickeln – dafür sind sie nicht groß genug. Sie haben aber die Möglichkeit, auf existierende oder neue KI-Plattformen aufzusetzen. Heute ist mehr denn je europäisches Zusammenhalten gefragt. Europa muss noch enger zusammenwachsen, als es heute der Fall ist. Welche weiteren Technologien siehst du neben KI weit vorn? Wir werden neue Arten und Weisen entwickeln, wie wir mit digitalen Informationen umgehen. Früher war das Papier das Leitmedium. Heute sind es die Screens in Form von Tablets oder Smartphones. In Zukunft werden wir andere Visualisierungsformen haben – wie Smart Glasses oder moderne Hologramme. Wir werden zukünftig nicht mehr differenzieren können, ob das Glas Wasser, was ich vor mir sehe, nun echt ist oder virtuell. Augmented und Virtual Reality werden sich weiterentwickeln, genauso wie die Mensch-Maschinen-Schnittstellen. Darüber hinaus brauchen wir neue Sicherheitsmechanismen im Bereich Cyber Security als neue Technologie. Dabei kann Blockchain eine Antwort sein – alles gesteuert durch künstliche Intelligenz. Aber es braucht nicht alles immer nur digitaler werden. Wir beschäftigen uns auch mit analog-digitalen Interfaces wie zum Beispiel einer vernetzten Fernsehzeitung aus Papier, mit der man aber sein TV-Gerät steuern kann, weil sie interaktiv ist. Ich klicke auf Tatort und die Fernsehzeitung versteht mich  – beispielsweise durch Bilderkennung oder gedruckte Schaltkreise.

6.4  Interview mit Dr. Stefan Kohn, VP T-Gallery bei Deutsche Telekom

311

… also das gewohnte Analoge mit dem Digitalen zu verbinden – ähnlich wie bei den Dash Buttons von Amazon … Ich sehe die Digitalisierung auf drei Ebenen. Die erste Eben ist, dass alles, was digitalisiert werden kann, auch digitalisiert wird. Die zweite Ebene ist die Vernetzung. Alles was vernetzt werden kann, wird vernetzt. Als Beispiel für Digitalisierung und Vernetzung steht der Amazon Dash Button. Und die dritte Ebene ist die Automatisierung. Was automatisiert werden kann, wird auch automatisiert. Dabei beginnt die Automatisierung in der untersten Stufe regelbasiert. Und KI wäre dann die nächste Evolutionsstufe, wenn zusätzlich noch Intelligenz ins Spiel kommt. Und diese Intelligenz übernimmt dann Aufgaben. Als Bindeglied zwischen diesen Ebenen fungieren Daten. Was ich in meinen Gesprächen mit Unternehmen immer wieder feststelle, ist, dass die Manager nicht weit genug in die Zukunft blicken. Sie teilen mir zwar mit, dass sie eine bestimmte Technologie verstanden haben. Ich merke dann aber schnell, dass dieses Verständnis häufig bei der Technologiefolge aufhört. Beispiel das selbstfahrende Auto, das mir ein „work and drive“ oder „drink and drive“ in Aussicht stellt. Das ist soweit richtig, aber nur ein Anwendungsfall. Worüber sich die wenigsten Leute Gedanken machen ist, welche Transformationskraft in den Städten wirkt. Bei selbstfahrenden Autos werden wir keine Parkplätze mehr brauchen. Auf einmal werden vierspurige Straßen nur noch auf zwei Spuren befahren. Die restlichen Spuren lassen sich anders nutzen. Heute machen die Parkflächen in den Innenstädten teilweise 30 % aus. Was werden wir mit den Parkflächen zukünftig machen? Oder was passiert, wenn alles automatisch nachbestellt wird, mit den Geschäften? Diese müssen nach der Transformation Erlebnisorte sein. Es ist wichtig, auch die Long-Termin-Vision zu vermitteln. Das machen wir in der Telekom Design Gallery. Wir gestalten diesen Weg und agieren dabei als Inspirationsquelle und Sparringspartner. Digitalisierende Unternehmen richten sich durchgehend kundenzentrisch aus. Die Ansprüche von Kunden werden weiter steigen. Worauf müssen sich Unternehmen in den kommenden Jahren einstellen? Früher gab eine Praline auf dem Bett eines guten Hotels. Heute gibt es Gummibärchen in Hostels. Unternehmen müssen sich immer wieder neu erfinden und stets auf dem Laufenden sein, welcher Mitbewerber das beste Alleinstellungsmerkmal hat. Makelloser digitaler Kundenservice kann ein Differenziator sein, wenn auch nur für eine bestimmte Zeit. Amazon oder Zalando sind die Benchmarks bei Kundenservice. Vor Jahren haben wir bei uns im Unternehmen erkannt, dass es eine Nachfrage nach digitalen Leseinhalten gibt. Da­ raufhin haben wir Apps entwickelt, um diese zu vermarkten. Nach einem grandiosen Flop haben wir erkannt, dass keiner auf die Idee kommt, Bücher und Zeitschriften auf einer Telekom-App zu kaufen und zu lesen. Auch der Buchhandel hat es versucht, aber nicht allein geschafft, da er über keine Kompetenz an den digitalen Touchpoints verfügte. Erst als wir eine Kooperation mit dem Buchhandel eingingen und die Tolino-Plattform ins Leben riefen, wurde der Tolino-E-Book-Reader zum Marktführer  – noch vor Amazon Kindle. Was bedeutet dies für das Digitale? Der Buchhandel kann gut Bücher verkaufen,

312

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

aber keine digitalen Inhalte. Unternehmen sollten sich sehr gut überlegen, was sie können und was sie nicht können. Und an welcher Stelle Partner Sinn machen. Daher ist es wichtig, sich auf eigene Kernkompetenzen zu konzentrieren und diese zu entwickeln. Was glaubst du, welche Kompetenzen im Unternehmen zukünftig eine wichtige Rolle spielen werden? Zunächst, glaube ich, ist eine gute Grundlagenausbildung wichtig. Zu glauben, dass es zukünftig für alles eine KI gibt und diese Technologie uns das meiste abnehmen wird, wäre zu kurz gesprungen. Die originäre Grundausbildung ist entscheidend. Ich möchte das am Beispiel von meiner Frau darstellen. Meine Frau ist ausgebildete Modedesignerin. In dieser Branche ist es üblich viel zu reisen – und damit war ihre Tätigkeit nicht familienfreundlich. Heute designt meine Frau die Mode für Avatare auf der virtuellen Plattform Second Life. Und das, von zu Hause aus. Dadurch, dass sie ihre originäre Ausbildung als Textildesignerin abgeschlossen hat, kann sie eine bessere Qualität auf Second Life anbieten als Modedesigner ohne Ausbildung und hat damit einen Wettbewerbsvorteil, den sie in die digitale Welt transferiert hat. Neben der Grundausbildung bedarf es an Leidenschaft. Und die dritte Eigenschaft, die man zukünftig immer stärker brauchen wird, ist Flexibilität. Ob es zukünftig noch Mitarbeiter sind oder unabhängige Beschäftigte, ist dabei eine ganz andere Frage. Welches Tech-Unternehmen hat dich in diesem Jahr am meisten überrascht? Negativ überrascht hat mich Magic Leap – der Hersteller von Mixed-Reality-Brillen. Das Unternehmen hat Milliarden von Google und Co. erhalten und es gab ganz tolle Marketingvideos. Dennoch war die Technologie zum Marktstart eher enttäuschend. Positiv überrascht hat mich Amazon, da sie sich ständig neu erfinden. Dagegen sehe ich bei Google und Facebook momentan Abnutzungserscheinungen. Amazon ist die einzige Konstante im Innovationskosmos. Insbesondere in Bereichen, bei denen man es nicht gedacht hätte. So ist Amazon Go zum Beispiel der Prototyp eines stationären Händlers ohne Registrierkassen. Nimmst du etwas aus dem Regal, wird es einfach über Kamera-Tracking registriert und automatisch von deinem Amazonkonto abgebucht. Amazon ist übermächtig geworden. Ist die rasante Entwicklung eher gut oder schlecht für uns? Als Verbraucher finde ich Amazon gut. Ich kaufe gern bei Amazon ein. Auf der Geschäftsseite wird es schwierig. Zwar hat Amazon noch keine Monopolstellung, aber als kleiner Händler, der online verkaufen will, kommst du nicht mehr an Amazon vorbei. Hinzu kommt, dass Amazon Alexa die performanteste Sprachplattform der Welt ist. So eine Plattform kann kein kleines Unternehmen für sich entwickeln. Neben Amazon gibt es die Spracherkennung von Google und von Apple – die weltweit größten Anbieter sind also Amerikaner. Aber Amazon ist die führende Plattform. Hinzu kommt, dass Sprache ein schmales Interface ist. Wie viele Auswahlmöglichkeiten akzeptiert dort ein Kunde? Über Sprache möchte ich nicht mehr Antwortalternativen haben als eine oder zwei. Dagegen

6.4  Interview mit Dr. Stefan Kohn, VP T-Gallery bei Deutsche Telekom

313

bekommst du bei Google noch 10 bis 20 Auswahlmöglichkeiten eingeblendet. Und dort gelistet zu werden, ist schon ein Milliardenmarkt für Suchmaschinenoptimierung und -werbung. Durch Voicification potenziert sich die Marktmacht von Amazon noch mehr. Das finde ich langfristig kritisch. Daher werden wir eine Sprachplattform auf den Markt bringen als deutsche Alternative. Momentan ist Alexa nur auf 14 Märkten weltweit aktiv. Ganze Wirtschaften wie Polen oder Spanien werden da abgehängt, in diesen Ländern gibt es keine Alexa-Sprachplattform. Alexa kam auch erst ein paar Jahren später als in den USA bei uns in Deutschland heraus. Das war für uns ein Nachteil. Bei Schlüsseltechnologien müssen wir uns überlegen, wie wir mit Blick auf den europäischen Markt eine europäische Antwort finden, sonst wird es ein Hindernis für die Innovationsfähigkeit unserer Gesellschaft. Kurzprofil Dr. Stefan Kohn

Vice President T-Gallery, Deutsche Telekom

Dr. Stefan Kohn ist für die Telekom Design Gallery – das Zukunfts- und Innovationsforum der Deutsche Telekom  – verantwortlich. Hier können Kunden und alle anderen Stakeholder des Konzerns die Chancen und Herausforderungen der Digitalisierung anhand von anschaulichen Use Cases aus verschiedenen Lebensbereichen erleben und diskutieren. Stefan Kohn ist ein Innovationsexperte mit über 15 Jahren Berufserfahrung. Vor seinem Eintritt bei der Deutschen Telekom war er Abteilungsleiter bei der Fraunhofer Gesellschaft e. V. – Europas größter Organisation für angewandte Forschung – und als Leiter Innovationsmanagement bei Fujifilm Europe für den Wandel von Analog- zur Digitalfotografie mitverantwortlich. Nach seinem Studium als Diplomwirtschaftsingenieur an der TU Darmstadt hat er seine Promotion an der WHU – Otto Beisheim Graduate School of Management abgeschlossen. Er ist Dozent an verschiedenen Hochschulen. Darüber hinaus ist er Vorstandsvorsitzender der PDMA e. V., Mitglied der ISPIM und WFS.

314

6.5

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

I nterview mit Christian Hoppe, Geschäftsführer bei Silicon Valley Bank

Herr Hoppe, das Banking steht derzeit unter massivem Transformationsdruck. Auf der einen Seite stehen Hunderte von FinTechs vor der Tür, die Traditionshäuser ohne personalintensives Filialgeschäft, dafür aber mit softwarebasierter Geschäftslogik und mit effizienten, automatisierten Prozessen angreifen. Auf der anderen Seite lauern Internetgiganten, die über eine breite, internationale Kundenbasis und Kapitalausstattung verfügen und einen Teil des digitalen Wachstumskuchens für sich beanspruchen wollen. Zusätzlich verlieren die Kreditinstitute 2019 ihren exklusiven Kundenzugang und müssen diesen mit weiteren Marktteilnehmern teilen. Wie nehmen Sie die Umbruchsstimmung im Markt wahr – ist die Lage noch entspannt oder bereits bedrohlich? Das Banking ist eigentlich eine Commodity. Das einzige was noch schützt, ist die Regulatorik. Und die wird 2019 ein Stück weit geringer. Aber sie wird auch weiterhin da sein, um das Bankgeschäft zu betreiben. Und sie kostet jede Menge Geld, um aktuelle Auflagen einzuhalten. Wir Banken haben immer gesagt, dass wir Trust-Provider sind. Das wird aber nicht ewig so weiter gehen. Insbesondere bei jüngeren Kunden, die eine ganz andere Vertrauensbasis zu Google und Facebook und Amazon haben. Wir können heutzutage sehen und messen, wie sich Kunden verhalten und was sie wie digital nutzen. Das ist ein super Indikator dafür, wie Kunden Banking gerne sehen möchten. So etwas müssen Banken bieten und sich evolutionär weiterentwickeln. Vielleicht muss man mit zwei Bankenstrategien arbeiten – etwas Modernes für die Jungen und das modernisierte Bewährte für die älteren Bestandskunden. Nur als Nischenbank hat man den Luxus, sich bestimmte Kunden auszusuchen. In Hong Kong gibt es anscheinend eine Auflage bei Hotels, dass diese alle 25 Jahre abgerissen werden sollen. Dort beabsichtigt man, eine Verjüngung der Infrastruktur zu erhalten. Vielleicht sollten sich Banken auch entsprechend häufig einem Erneuerungsprozess unterziehen – mit neuen Technologien. Dabei gibt es keinen Technologieübertrag, um zu verhindern, dass sich neue Systeme mit alter Logik und Technologie infizieren. Auch wenn so etwas ein Pain-Point und vielleicht auch wenig akzeptiert wäre. Aber so könnten Banken sicherstellen, ihre Legacy nicht mitzuziehen, die Innovationen blockieren. Als Managing Director der Silicon Valley Bank Deutschland kommen Sie mit vielen disruptiven Start-ups in Berührung und finanzieren diese. Worauf legen Sie Wert? Die Silicon Valley Bank ist im Verhältnis zu großen deutschen Geldinstituten eine kleine Bank. Unsere Kunden sind die Innovatoren und Disruptoren unserer Zeit. Bei uns ist steht der Beziehungsansatz im Vordergrund. Denn Technologie ist nicht alles. Es bedarf viel mehr, um erfolgreich zu sein. Nicht der Pionier ist immer der erfolgreichste, sondern auch manchmal die Nummer 30 im Markt. Man braucht eine Vision, Motivation und Unternehmertum. Manchmal sind fünf Leute erfolgreicher als 1000. Bei uns steht der Mitarbeiter sogar noch stärker im Fokus als der Kunde. Bieten wir unseren Mitarbeiter ideale ­Bedingungen, sind diese so motiviert und effizient, sodass sie gar nicht anders können, als

6.5  Interview mit Christian Hoppe, Geschäftsführer bei Silicon Valley Bank

315

unsere Kunden glücklich zu machen. Dadurch stimmen auch die Aktienkurse. In vielen Bereichen ist es allerdings noch umgekehrt: erst der Shareholder, dann der Kunde, dann der Mitarbeiter. Wenn das Unternehmertum nicht in Mitarbeitern geweckt wird, werden sie das Unternehmen nicht so behandeln, als wäre es ihr eigenes. Wenn zu viele Personen im Unternehmen nicht unternehmerisch denken, bremsen sie diejenigen aus, die etwas erreichen wollen. Es sorgt dafür, dass diejenigen, die Hunger haben, das Unternehmen verlassen. Wer zudem aufhört zu lernen, hat ein Riesenproblem. Bei der digitalen Transformation mit einer viel höheren Schlagzahl fällt das sehr deutlich auf. Aber die Grundwerte dahinter sind gleichgeblieben. Wie wirkt sich die fortschreitende Digitalisierung auf die Geschäftsmodelle der Banken aus? Reicht es aus, die bisherigen Geschäftsmodelle anzupassen oder sollten die Geschäftsmodelle neu gedacht werden? Beides. Um beim vorherigen Beispiel mit dem Hotel zu bleiben und Sie morgen ein neues eröffnen würden. Was Sie nicht hinbekommen ist, es allen Zielgruppen gleichermaßen recht zu machen. So könnte es passieren, dass Sie mit einem technologisch hochmodernen Ansatz Ihre alten Kunden komplett verlieren. Als großes Unternehmen mit großer Kundenbasis haben Sie hohe Erwartungen an sich selber. Und wenn meine Kunden zwischen 1 und 90  Jahre alt sind, habe ich einen gesellschaftlichen Auftrag, meinen Kunden bestimmte Leistungen zur Verfügung zu stellen. Auf der einen Seite das Evolutionäre zu machen, auf der anderen Seite die disruptiven Technologien verstehen, digitale Anwendungen ausrollen und bei bestimmten Kunden einsetzen. Nur das eine oder andere zu machen, funktioniert in diesem Fall nicht. Da disruptive Pfade viel länger brauchen, bis sie sich rechnen, bleiben viele Banken bei ihren evolutionären Pfaden. Aber man muss definitiv beides machen, ohne dabei alles selber zu entwickeln. Künstliche Intelligenz mit Blockchain verbunden und Big Data ist ein grandioses Feld. Das wichtigste bei KI ist, dass Daten das neue Öl sind. Auch wenn wir diesen Satz nicht mehr hören können, ist er dennoch richtig. Selbst wenn die Deutsche Bank oder Commerzbank alle ihre Daten zusammenlegen würden, kämen sie auf nur 2 bis 3 % der Daten von Facebook. Und diese wären noch lange nicht bereinigt und nutzbar wie bei Facebook, sodass ich mit Data Analytics viel weniger Erkenntnisse generiere. Da stehen die Banken noch am Anfang. Und dabei rede ich noch nicht von KI-Anwendungen. Was erwartet ein junger Bankkunde von einer modernen Bank? Und was können Banken von jungen Menschen lernen? Was die Leute privat machen, erwarten sie in ähnlichem Umfang von einer Bank. Wenn sie auf Knopfdruck Zugriff auf 100 Millionen Songs haben bei Spotify, jede Menge Convenience und Flexibilität und das jeweils beste vorgeschlagen bekommen – erwarten sie so etwas in ähnlicher Form von einer Bank oder am Arbeitsplatz. Auf der anderen Seite haben selbst die jungen Leute manchmal Lust auf das Traditionelle und setzen dabei auf Qualität, für die sie auch mehr bezahlen wollen. Zumindest dann, wenn es um Kundenbeziehungen geht und nicht nur um reine Transaktionen.

316

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Wie sieht die Bank im Jahr 2030 aus? Wird es dann noch Filialen geben? Oder kommunizieren Bankkunden mit künstlich intelligenten Assistenten, die aufgrund der Fülle auswertbarer Daten kompetenter, bedarfsorientierter und vorausblickender beraten, als es ein menschlicher Berater jemals könnte? Die Filialen wird es sicherlich noch ewig geben. Aber es werden wesentlich weniger sein. Und es werden andere Leute als heute hinein gehen. Es gibt die Qualitätsbewussten, die einmal in der Woche Fleisch essen, wo das Kilo auch 30 Euro kosten darf. Diese Leute haben den Anspruch auf gute Beratung und zahlen dafür auch Geld. Die Filialen werden eine andere Anmutung als heute haben. Im Jahr 2030 könnte es sein, dass mich noch ein menschlicher Kundenberater empfängt und mich sofort mit meinem Namen anspricht und genau weiß, warum ich da bin. Es gab mal einen Piloten bei den Sparkassen mit intelligenten Plakaten, in die eine Kamera eingebaut war. Je nachdem, wer davorstand, wurden zum Beispiel Immobilienkredite oder einfach nur das Bankkonto angezeigt. Zukünftig werden die richtigen Ansprechpartner automatisch auf Kunden, die die Filiale betreten, zukommen. Beispielsweise kommt dann der Immobilienfachmann auf einen zu und ist bereits auf alles vorbereitet. Bei den künftigen Bankfilialen müssen die Ausbildungsinhalte stärkere Technologienutzung berücksichtigen. Wenn man heutzutage Geldanlagen anbietet, gibt es noch einen Asset-Manager. Aber irgendwann könnte KI das alles im Hintergrund übernehmen. Ich muss dann als Kunde keine Frage mehr beantworten. Die KI weiß dann bereits über alles Bescheid, weil sie Daten ausliest und interpretiert und mir Vorschläge macht. Was glauben Sie, in welchem Jahr die künstliche Intelligenz uns Menschen überholt, sodass wir ohne technische Hilfsmittel nicht mehr in der Lage sind, sie zu verstehen? Oder wird dieser Tag niemals eintreten? Dieser Tag wird eintreten. Definitiv. Wir können uns nicht vorstellen, was alles noch passiert, weil die Entwicklung unser geistiges Vorstellungsvermögen übertreffen wird. Ich könnte mir vorstellen, dass es um 2050 soweit ist. Bis zur Singularität wird es noch eine Weile dauern.

Kurzprofil Christian Hoppe

Managing Director, Silicon Valley Bank

6.6 Interview mit Nils Müller, Geschäftsführer bei TRENDONE

317

Christian Hoppe ist Managing Director der Silicon Valley Bank Deutschland und zuständig für das Relationship Management. Zuvor war er Gründer und Geschäftsführer der Main Incubator GmbH, einer hundertprozentigen Tochter der Commerzbank AG. Mit Between the Towers. FinTechCity_Frankfurt etablierte er die erste monatlich wiederkehrende Veranstaltungsreihe der Szene und legte damit den Grundstein für ein stetig wachsendes Ökosystem im Rhein-Main-Gebiet. Christian Hoppe ist Co-Autor zahlreicher Fachbeiträge, Herausgeber mehrerer Fachbücher, gefragter Redner und Business Angel. Mit 21  Jahren gründete er seine erste Firma.

6.6

Interview mit Nils Müller, Geschäftsführer bei TRENDONE

Nils, als digitaler Vordenker denkst du Jahrzehnte voraus. Wie entwickelt sich das Zusammenspiel zwischen Mensch und Maschine bis Ende der 2020er-Jahre und wie können sich Unternehmen darauf einstellen? Was stark voranschreiten wird, ist die Mensch-Maschine-Konvergenz mit Cyborgs und der nächsten Generation von Wearables mit aufgezeichneten und ausgewerteten Daten. Damit meine ich eine weitere Verschmelzung von Menschen und Technologien. Die Zielgruppen sind bald keine reinen Humans mehr, da der ganze Organismus kontinuierlich neue Daten generiert. Auf diese Weise entstehen ganz neue Zielgruppen für Unternehmen. Wir nennen es Bio Web mit Bioelectronics, Artificial General Intelligence, Brain-­ C omputer-­ Interfaces, Brain-Wave-Control, Implants, Wetwear, Active Contact Lenses, Exoskeletons, Digital Tattoos und Full-Body-Prothesis, das dafür sorgt, dass wir Menschen länger und gesünder leben werden und die Schwächen des Körpers überwinden. Diese Epoche findet zwischen 2018 und 2028 statt. Was sind die großen aktuellen Schlüsseltechnologien, an denen Unternehmen derzeit Interesse signalisieren? Künstliche Intelligenz, Blockchain und die ganze Virtualisierung und Dematerialisierung inklusive 3D-Druck und Virtual Reality. Diese großen Themen stehen derzeit im Vordergrund. Und dabei sind es eher Front-Office-Themen wie Chatbots oder virtuelle Kundendialoge und noch nicht Back-Office-Themen, wie beispielsweise virtualisierte HR-­ Prozesse und operative Dinge. Es geht aktuell noch nicht so richtig in die Infrastruktur der Unternehmen hinein. Dies wird aber noch ein paar Jahre dauern. Momentan sehe ich etwa 60 % der Cases im Bereich Frontoffice bei Marketing, Vertrieb und Kundenservice und lediglich 25 % der Cases im Einkauf und in der Supply-Chain. Aber das wird sich in den kommenden Jahren ändern.

318

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Welche größten Transformationsbarrieren nimmst du momentan bei Unternehmen wahr? Die größte Barriere ist, dass viele Unternehmen ihre – nennen wir es mal Digitalisierungshausaufgaben – noch nicht richtig gemacht haben. Und damit meine ich rückblickend in den letzten 20 Jahren. Dazu zähle ich Suchmaschinenoptimierung, E-Commerce und Co., also die Digital Basics. Während jetzt bereits ganz deutlich die nächste Technologiewelle zu erkennen ist, sind viele Unternehmen noch mit dem Unterbau ihrer Digitalisierung beschäftigt. Wenn ein Unternehmen heute erst in E-Commerce investiert, darin Erfahrungen sammelt und Kompetenzen aufbaut in einem Feld, das es schon seit 15bis 20 Jahren gibt, ist dies relativ spät. Wenn dieses Unternehmen jetzt erst E-Commerce macht, kann es sich nicht gleichzeitig mit derselben Aufmerksamkeit um ein Thema wie KI oder Blockchain kümmern. Letzte Woche war ich wieder einmal in China. Dort gliedern die meisten Unternehmen KI oder Blockchain wie ganz selbstverständlich in ihren Businesskontext ein. Kein Mensch spricht dort noch über E-Commerce. Beschäftigen sich Unternehmen noch primär mit solchen Basisthemen, haben sie es im globalen Wettbewerb zukünftig schwer. Europa war bei der industriellen Revolution Vorreiter in vielen Bereichen, wie zum Beispiel im Maschinenbau. Dann kam die digitale Revolution, bei der die Amerikaner die Vorreiter waren. Und jetzt kommt KI und kognitive Revolution, bei dem die Chinesen ganz weit vorne mitspielen. Dabei machen die Chinesen, um die herum eigentlich alles gemessen wird, was sich messen lässt, das Spiel mit, solange ihr persönlicher Nutzen überwiegt. Jeder weiß dort, dass alles überall getrackt wird. Doch durch die Überwachung können die Menschen zum Beispiel in Shanghai mit ihren 25 Millionen Einwohnern extrem sicher leben – dort gibt es so gut wie keine Kriminalität. Worin siehst du den größten Hebel bei Unternehmen, um sich vom bisherigen Geschäftsmodell zu entfesseln und dem Neuen mehr Raum zu geben? Hier verweise ich auf das Scaling-Edges-Prinzip von Deloitte. Du nimmst eine bestehende Organisation und klebst eine neue Organisation darauf. Das Edge Business skalierst du groß mit dem Kapital und den Kompetenzen der alten Organisation. Ströer hat dies erfolgreich umgesetzt. Ströer war ehemals der größte Anbieter für Außenwerbung und ist heute der größte Digital-Media-Anbieter. Was glaubst du, in welchem Jahr die künstliche Intelligenz uns Menschen überholt, sodass wir ohne technische Hilfsmittel nicht mehr in der Lage sind, sie zu verstehen? Ich glaube, dass dies mit einer Eintrittswahrscheinlichkeit von über 50 % zwischen 2050 und 2070 sein wird. Ich habe die alten Prognosen von Kurzweil genau analysiert. Er lag mit seinen Einschätzungen so gut wie immer richtig, hat nur den Zeitpunkt des Eintritts um den Faktor 2 unterschätzt. Wenn er davon ausgeht, dass es in 26 Jahren der Fall sein wird, sage ich in 50 Jahren.

6.7 Interview mit Christian Buchwald, Chief Technology Scout, TÜV Rheinland

319

Nils Müller

CEO, TRENDONE

Nils Müller verfügt über einen besonders scharfen Blick auf die Trends und Innovationsherausforderungen von Unternehmen. Bereits 2002 gründete er TRENDONE, Marktführer für Trendforschung und Innovationsberatung im deutschsprachigen Raum, das er bis heute inhabergeführt leitet. Als Gründer der LaFutura, dem globalen Trend Network, ist es Nils ein wichtiges Ziel, Zukunftsdenker und Visionäre zusammenzubringen. Seine Keynotes werden national und international als Event-Highlights diskutiert. In seiner Zeitreise 2028 zeigt er globale Innovationen und wertvolle Impulse in einer effektvollen Storyline. Nils studierte in Berlin, New York und Mailand. Seine Karriere begann im IBM Innovation Center. Heute lebt er mit seiner Frau und seinen drei Kindern in Hamburg-Blankenese.

6.7

I nterview mit Christian Buchwald, Chief Technology Scout, TÜV Rheinland

Christian, wenn du an die digitale Transformation denkst – was glaubst du sind derzeit die größten Herausforderungen für Unternehmen, sich an das digitale Zeitalter anzupassen? Viele Unternehmen haben meiner Meinung nach noch gar nicht verstanden, dass es sich dabei nicht um einen Trend handelt, sondern um ein evolutionäres Thema. Dabei reicht es nicht aus, zwei oder drei Bereiche zu digitalisieren. Unternehmen sollten sich fragen, was digitalisieren wir bereits und was können wir zukünftig noch digitalisieren? Wie stellen wir uns technologisch

320

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

auf? Welche Unfair Advantages können wir zukünftig aufbauen? Oder falls wir weiterhin auf unsere Assets und Skills bei unserem Kerngeschäft setzen – wie zukunftsträchtig ist dieses eigentlich noch? Was bedeutet digitale Transformation bezogen auf die Arbeitswelt: Was wird durch Roboter und Computer digitalisiert und automatisiert und wie viel Platz bleibt in der Arbeitswelt noch für Kollegen aus Fleisch und Blut? Was kann an Wertschöpfung automatisiert und skaliert werden? Was passiert, wenn nicht automatisiert wird? Mein Eindruck in Bezug auf den letztgenannten Punkt ist, dass viele durch Computer ersetzbare Arbeitstätigkeiten künstlich am Leben gehalten werden. Unternehmen sollten stattdessen besser diejenigen Bereiche für Beschäftigte schützen, für die es langfristig eine Perspektive gibt. Es macht wenig Sinn, das Unausweichliche hinauszuzögern, bis es zu spät ist. Unternehmen sollten den Wandel von menschlicher zu maschineller Arbeit genau für sich analysieren, um auch langfristig wettbewerbsfähig zu bleiben und nicht hinter massiv digitalisierte Wettbewerber, beispielsweise aus Asien zurückzufallen. Es wird viel über wegfallende Jobs gesprochen. Welche Branchen werden sich durch Computerkollegen in den nächsten zehn Jahren wie stark verändern? Alles, was Unternehmen automatisieren können, werden sie automatisieren. Ich denke, dass es in einigen Branchen Automatisierungsgrade von fast 100 % geben wird. Wenn Roboter zukünftig 30.000 bis 50.000 $ in der Anschaffung kosten und einen Menschen 1:1 ersetzen können, amortisiert sich die Investition schnell. Vermutlich werden wir uns bis 2050 von bis zu 80 bis 90 % der heutigen Jobs verabschieden können. Auch wenn beispielsweise die Bundesregierung momentan mit Vollgas die Pflege ausbaut, werden bis 2030 mindestens 30 bis 50 % aller Pflegestellen durch Roboter ersetzt. In Japan gibt es derzeit vielversprechende Ansätze, deren Ziel ist es, 80 % ihrer Pflegefälle bis 2020 mindestens durch eine Art von Roboter zu unterstützen. In der gesamten Fertigungstechnik werden wir uns in den kommenden 10 bis 15 Jahren von allen Fabrikarbeitern trennen. Automatisierungsgrade, höher als bei Tesla, werden in Zukunft zum Standard. Zukünftig werden Menschen nicht mehr körperlich arbeiten, sondern sich ausschließlich auf geistige Tätigkeiten konzentrieren. Dabei werden Themen wie Design, Forschung und Entertainment im Vordergrund stehen. In der Handelsbranche werden sich meiner Meinung nach zukünftig die großen Plattformen durchsetzen. Amazon und Alibaba sind bereits heute Automatisierungsspezialisten und stark robotikgetrieben. Irgendwann werden auch die Logistikzentren und die Auslieferung von Waren vollständig autonom und ohne menschliche Unterstützung funktionieren. Immer mehr Drohnen oder mobile Roboter werden Pakete ausliefern – zulasten von traditionellen Postboten und Paketdiensten. Ich denke, dass sich die Logistik bis auf den Transport von sperrigen Gütern und gefährlichen sowie explosionsgefährdeten Stoffen radikal verändern wird. Menschen werden durch Drohnen und kleine Roboter ersetzt, die mit dem Paket durch die Einkaufsstraßen fahren oder die Ware über Fenster oder Balkone

6.7  Interview mit Christian Buchwald, Chief Technology Scout, TÜV Rheinland

321

ausliefern. Autonome Maschinen sind auf lange Sicht verlässlicher und günstiger und können 24/7 liefern. So wäre es vorstellbar, dass der Auslieferungsroboter einfach nach sicherer Authentifizierung die bestellten Waren direkt in der Wohnung an einer vorher festgelegten Stelle abstellt und die Wohnung wieder verlässt. Auch der Finanzsektor wird sich völlig verändern. In Japan haben die drei Großbanken Mizuho Financial Group, Mitsubishi UFJ Financial Group und Sumitomo Mitsui Financial Group bereits angekündigt, im nächsten Jahrzehnt mindestens 32.500 Stellen abzubauen. Ich denke, dass diese Einschätzung sehr konservativ ist und die Zahl bedeutend höher ausfallen wird. Diese Banken entwickeln Algorithmen, die besser prognostizieren können als menschliche Analysten. Letztere interpretieren Daten noch nach bestimmten Regeln und Erfahrungen. Doch mit einem selbstlernenden Algorithmus werden die Computer nach einiger Zeit bessere Ergebnisse erzielen, indem sie auf riesige Datenmengen zugreifen, bisherige Regeln immer wieder anpassen und in Echtzeit zu besseren Entscheidungen gelangen als ihre menschlichen Kollegen. Auch im Kundenservice wird sich vieles ändern. Menschliche Serviceanlaufstellen werden mittelfristig wegfallen. Die jüngeren Zielgruppen sind es gar nicht mehr gewohnt, in eine Bank- oder Versicherungsfiliale zu gehen. Warum ist dies so? Wenn sie zukünftig einem Bot eine Frage stellen, bekommen sie jederzeit akkurate und belastbare Antworten in Echtzeit. In der Filiale treffen sie hingegen auf Menschen, die über unterschiedliches Wissen verfügen und nicht immer auf aktuelle Daten und gesammelte Erfahrungen zugreifen können. Auch die Tourismusbranche wird sich durch Virtual Reality radikal verändern. Warum sollte ich in zehn Jahren nach Berlin reisen, wenn ich mir das Brandenburger Tor inklusive Umgebung für 50  Cent hochauflösend aus allen Perspektiven anschauen kann und die Wahrnehmungsgrenzen verschwunden sind und über neuronale Schnittstellen die meisten menschlichen Sinne simuliert und stimuliert werden können? Ich prognostiziere, dass es 2050 kaum noch Tourismus nach heutigen Maßstäben geben und dieser bis 2070 komplett verschwinden wird. Wenn in 30 bis 50 Jahren ganze Branchen und Berufsbilder verschwunden sind und sich die Arbeitswelt radikal verändert hat – was kommt danach? Gesellschaften werden ein neues Arbeitsverständnis brauchen. Bisher arbeiten Menschen, um Geld zu verdienen, um ihren Lebensunterhalt zu bestreiten oder sich Konsumwünsche zu erfüllen. Dennoch wird der Zeitpunkt kommen, wo mehr als 90 % der Bevölkerung nicht mehr arbeiten müssen. Was machen wir dann? Werden wir dann auswählen, wer noch arbeitet oder nicht mehr arbeiten soll? Die Frage, die sich mir stellt, ist, ob wir das dann noch mitbekommen, wenn wir gerade arbeiten. Auch unser Gehirn ist nur eine Maschine und diese lässt sich anzapfen. Wie sehen kreative Tätigkeiten aus? Werden diese unterbewusst ablaufen? Gestalten wir unseren Tag, wie wir ihn gerne hätten? Und wenn wir uns schlafen legen, koppelt sich dann eine KI mit unserem Gehirn, um im Zusammenspiel zwischen Maschine und Mensch neue Ergebnisse zu schaffen? Werden mittels Simulation kreative

322

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Menschen im Schlaf unterbewusst ein neues Fahrzeug designen oder Lieder komponieren? Die weniger Kreativen werden dann diese Objekte und Einflüsse in ihren Träumen sehen und durch ihre Gedanken besseres Feedback geben als die heutige Marktforschung liefern kann. Maschinen werden unseren normalen Händen überlegen sein und viel bessere Fertigkeiten besitzen. Kein menschliches Auge wird mit einer digitalen Hochleistungskamera mithalten können, trotz 24/7-Training im Fitnessstudio wird der hydraulische Arm den menschlichen stets übertreffen und Roboterbeine werden niemals müde, wenn Induktionsschleifen im Boden liegen oder sie anderweitig mit Energie versorgt werden. Nur beim kreativen Denken werden uns die Maschinen noch sehr lange nicht übertreffen können. Auch wenn Google derzeit den Maschinen mit seinen Deep-Dream-Systemen das Träumen beibringt – bis zum wirklich freien Denken und kreativ sein, liegt noch ein sehr langer Weg vor uns. Ich weiß nicht, wann es komplett ungebunden möglich sein wird. Doch ich schätze nicht vor 2050. Werden wir durch technischen Fortschritt irgendwann unsterblich sein? Wird es uns dann zweimal geben – einmal wie gewohnt als biochemischer Körper und Geist und einmal als identischer, digitaler Zwilling in der Cloud? Diejenigen, die heute jünger als 40 Jahre sind, werden rein theoretisch die ersten unsterblichen Menschen sein. Die erwartete Lebenserwartung wird immer weiter steigen. Jahr für Jahr. Wenn einmal die Lebenserwartung pro Jahr um mehr als ein zusätzliches Jahr ansteigt, können wir uns sicher sein, dass nicht mehr die Biologie über unser Überleben entscheidet. Dann werden wir uns vermutlich fragen, wie lange wir es uns noch leisten können, auf unserem Planeten zu leben, wenn unsere Population weiterhin so wächst. Nach aktuellem Vorstellungsvermögen können maximal 20 bis 30 Milliarden Menschen auf der Erde leben. Wir werden in die Höhe und in die Tiefe bauen. Wir werden Floating Islands als schwimmende Inseln auf den Ozeanen errichten und vielleicht einen Ring in der Atmosphäre um die Erde bauen – wie in Science-Fiction-Filmen. Aber irgendwann wird es eine Beschränkung der Ressourcen geben. Was machen wir dann? Holen wir über Space Mining benötigte Rohstoffe von anderen Planeten? Spätestens dann werden wir an Grenzen stoßen und über eine limitierte Anzahl an biologischen Körpern auf der Erde entscheiden. Aber dies geschieht physikalisch. Zu diesem Zeitpunkt wird es längst wie in der IT eine logische Trennung zwischen Hardware und Software geben. Und unsere Gedanken warten einfach, in der virtuellen Warteschlange mit einem neuen Körper verbunden zu werden, sobald dieser freigegeben wird. Vielleicht etabliert sich dann auch so etwas wie BaaS (Body-as-a-Service) als Mietkonzept? „Oh, heute habe ich ein Date, dann hole ich mir dank Pay-as-you-Go schnell noch den Körper meines Lieblingsmodels“. So etwas wird vermutlich zum Standard werden. Und dank DNA-Katalogbestellung werden die unliebsamen Eigenschaften durch vorteilhaftere er-

6.7  Interview mit Christian Buchwald, Chief Technology Scout, TÜV Rheinland

323

setzt. Durch diese Hirndigitalisierung wären standardmäßig alle unsere Gedanken und Erfahrungen in einer großen Datenbank in der Cloud verfügbar. Und bei Bedarf ließe sich die Peripherie wechseln. Welche Schüsseltechnologien haben deiner Meinung nach den größten Hebel und werden die Wirtschaft am meisten umwälzen? Ich denke, dass KI die wichtigste Schlüsseltechnologie ist. Doch von richtiger Intelligenz kann man heute leider noch nicht sprechen. Alle Aktivitäten haben etwas mit Daten zu tun. Und aus erkannten Mustern lassen sich Rückschlüsse ziehen. Auch wenn bei KI schon vieles möglich ist, stehen wir derzeit noch am Anfang. Doch die Innovationsgeschwindigkeit wird durch KI exponentiell wachsen. KI kann und wird jeden Bereich beschleunigen  – ausnahmslos. KI wird das Transportwesen neugestalten, Drohnen und autonome Flugtaxis werden KI-gesteuert sein. Und KI wird die gesamte Produktion der Güter vom Anbau der Rohstoffe und deren Verarbeitung bis hin zur Endmontage und den Verkauf sowie der Zustellung zum Kunden automatisieren. Der größte Vorteil besteht darin, dass diese Lösungen nicht wie ein bisheriges Programm einmalig entwickelt werden, sondern sich gegenseitig trainieren und durch Deep-Learning-Algorithmen stetig verbessern. Je größer die Datenmengen werden, je besser sie klassifiziert werden und je mehr menschliches Feedback einfließt, desto besser werden diese Lösungen sein. Auch wenn Menschen dabei noch häufig selber Hand anlegen müssen, ist davon auszugehen, dass KI-Lösungen uns Menschen längerfristig übertrumpfen. Momentan sind KI-Lösungen optional und werden gelegentlich eingesetzt, doch in Zukunft werden diese für uns ganz selbstverständlich sein. Was glaubst du, in welchem Jahr die künstliche Intelligenz uns Menschen überholt, sodass wir ohne technische Hilfsmittel nicht mehr in der Lage sind, sie zu verstehen? Ich glaube, im Jahr 2030 wird es so weit sein. Es gibt bereits heute schon KI, die wir nicht mehr verstehen können. Google und Facebook haben bereits eigene KI-­ Forschungsprogramme abgebrochen, als sie merkten, dass die Maschinen in ihrer eigenen, für Menschen unverständlichen Sprache miteinander kommunizierten. Auf breiter Basis wird dieser Wendepunkt etwa gegen 2030 eintreten. Und dann haben wir Menschen keine Vorstellung mehr davon, was innerhalb der künstlich intelligenten Programme eigentlich passiert. Es wird dann auch keine vollumfängliche menschliche Kontrolle mehr geben können. Dennoch werden wir weiterhin den Input und den Output sehen können. Auch wenn wir dann nicht mehr verstehen, was dazwischen passiert. Disclaimer: Das Interview gibt ausschließlich die persönliche Meinung von Christian Buchwald wieder.

324

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Kurzprofil Christian Buchwald

Chief Technology Scout, TÜV Rheinland

Christian Buchwald vereint in seinen technologiegetriebenen Visionen alle Ebenen, Aktoren und Perspektiven. Als Chief Technology Scout bei TÜV Rheinland ist er zuhause, wo die Technologiemusik spielt: Auf Start-up-Events, Messen und im Netz. Seine Aufgabe ist es, Durchblick im Dschungel der Buzzwords zu bewahren und Technologien so gut zu verstehen, dass er sie jedem vermitteln kann. Als Technologie-­Nerd ist er von klein auf davon fasziniert und liebt es, ihre Entwicklung aktiv voranzutreiben. Aus diesem Grund betreut er viele Projekte, programmiert digitale Lösungen und agiert als Schnittstelle zwischen IT, Fachbereichen und Start-­ ups. Wissen ist Macht. Deshalb liegt ihm besonders an dessen Weitergabe – an Kollegen, Freunde, Jugendliche und Innovatoren, die er bei verschiedenen Events wie Code & Design Camps als Mentor unterstützt. Als Vorstandsmitglied des Fablabs DingFabrik gibt er zudem Hilfe zur Selbsthilfe – beispielsweise bei der Unterstützung von Repair Cafés.

6.8 Interview mit Prof. Dr. Schmidhuber, Director und Professor am The Swiss AI Lab …

6.8

325

I nterview mit Prof. Dr. Schmidhuber, Director und Professor am The Swiss AI Lab IDSIA – USI & SUPSI

Herr Prof. Schmidhuber, als einer der weltweit renommiertesten KI-Experten haben Sie Computern das Lernen beigebracht. Wie haben Ihre KI- und Lernverfahren die moderne Welt beeinflusst? Seit Mitte 2017 gilt: Die fünf wertvollsten börsennotierten Firmen der Welt (Apple, Alphabet/Google, Microsoft, Facebook, Amazon) betonen alle, wie zentral KI für sie sei, und sie verwenden alle in massiver Weise unsere KI aus dem Voralpenland, insbesondere das Deep-Learning-Verfahren Long Short-Term Memory (LSTM), das meine brillanten Studenten (allen voran Sepp Hochreiter, dann auch Felix Gers, Alex Graves und andere) seit den 1990ern an der TU München und am IDSIA in der Schweiz ermöglicht haben, und das nun unter anderem in drei Milliarden Smartphones steckt, jeden Tag weltweit milliardenfach genutzt wird und dabei einen beträchtlichen Teil der gesamten Rechenressourcen der Welt verbraucht. So ein LSTM ist am Anfang ganz dumm, doch durch Erfahrung wird es klug und lernt, alle möglichen Probleme zu lösen, ein wenig wie ein Hirn. Beispielsweise macht LSTM, das seit 2006 durch unseren CTC-Algorithmus trainiert wird, seit 2015 Googles Spracherkennung auf nun über zwei Milliarden Android Smartphones. Seit 2016 war LSTM zentral für das stark verbesserte Google Translate. Oder Facebook macht seit 2017 pro Tag 4,5 Milliarden Übersetzungen mit LSTM – das sind über 50.000 pro Sekunde. LSTM erzeugt seit 2016 auch die Frauenstimme bei Amazons Alexa – da ist keine Tonaufnahme mehr. Und LSTM steckt seit 2016 in Apples Siri und QuickType auf fast einer Milliarde iPhones. Darüber hinaus erlernt LSTM auch Robotersteuerung, automatische Bildbeschreibung, medizinische Diagnostik, Vorhersage von Aktienkursen, Musikkomposition, Chat Bots oder Personal Assistants. LSTM durchdringt also heute die moderne Welt. Business Week nannte LSTM „arguably the most commercial AI achievement“. Nach Schätzung der für OpenAI tätigen Informatiker Amodei und Hernandez verdoppelt sich die KI-Rechenleistung für große Anwendungen scheinbar alle 3,5 Monate und wächst damit exponentiell. Wieviel kann man in unserem Sonnensystem überhaupt rechnen? Viel. Ein Menschenhirn vermag wohl nicht mehr als 1020 (das ist eine 1 mit 20 Nullen) elementare nützliche Rechenoperationen pro Sekunde (op/s) auszuführen. Vermutlich viel weniger, sonst würden unsere Köpfe überhitzen. Alle bald 1010 Menschenhirne zusammen schaffen also wohl höchstens 1030 op/s. Bremermanns physikalisches Rechenlimit (entdeckt im Jahr 1982) liegt nun aber bei der vergleichsweise gigantischen Zahl von etwa 1048 op/s pro Milligramm Rechensubstrat. Das Mooresche Gesetz der 1960er, das alle 18 Monate doppelt so viele Transistoren pro Chip vorsah, gilt nicht mehr. Aber ein älteres Gesetz schon noch: alle fünf Jahre wird Rechenkraft etwa zehnmal billiger. Das gilt nämlich, seit Konrad Zuse 1935 bis 1941 den ersten funktionstüchtigen programmierbaren Rechner der

326

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Welt baute. Heute, 2019, und damit 78 Jahre später, entspricht dies einem Faktor von über 1015, oder einer Million Milliarden. Bald haben wir also wohl billige Rechner mit der rohen Rechenkraft eines Menschenhirns. Falls der Trend anhält, 50 Jahre später für denselben Preis die Rechenkraft aller 10 Milliarden Menschenhirne. Der Bremermann-Grenze wird man sich dann im nächsten Jahrhundert annähern, also sehr bald, denn 100 Jahre sind weniger als ein Prozent der Zivilisationsgeschichte. Eine Maschine kleiner als ein Stecknadelkopf könnte unter diesen Voraussetzungen also theoretisch eine der Menschheit vergleichbare Gemeinschaft von 10  Milliarden Agenten simulieren, jeder ausgestattet mit einem LSTM mit der rohen Rechenkraft eines Hirns, angesiedelt in einer virtuellen Realität, die noch 10 Milliarden mal komplexer ist als die ganzen LSTM-Netze selbst. Man bedenke nun noch, dass die Erdmasse für 1030 Stecknadelköpfe reicht, und die des Sonnensystems für 1036 – siehe auch meinen Beitrag zum Optimal Ordered Problem Solver aus dem Jahr 2004. Wie werden intelligente Algorithmen die Arbeitswelt von morgen prägen? Künstliche Intelligenzen werden fast alles erlernen, was Menschen können – und noch viel mehr. Ihre neuronalen Netzwerke werden aus Erfahrung klüger und alle zehn Jahre hundertmal mächtiger pro Euro. Roboter und deren Besitzer werden natürlich hinreichend Steuern zahlen müssen, sonst gibt es Revolution. Was bleibt dem Menschen zu tun? Der von harter Arbeit befreite Homo Ludens wird wie stets neue Wege finden, mit anderen Menschen professionell zu interagieren. Schon heute üben die meisten Leute Luxusberufe aus, die anders als der Ackerbau nicht überlebensnotwendig sind. Der beste Schachspieler ist seit 1997 kein Mensch mehr, doch immer noch spielen Menschen gegeneinander, und verdienen gar damit. Maschinen waren viel schneller als Usain Bolt, doch er bekam zig Millionen dafür, andere Menschen zu besiegen. In Südkorea entstanden neue Berufe wie der professionelle Videospieler. Länder mit vielen Robotern pro Einwohner (Japan, Südkorea, Deutschland, Schweiz) haben erstaunlich niedrige Arbeitslosenquoten. Es gilt mein alter Spruch aus den 1980ern: „Es ist leicht vorherzusagen, welche Jobs verloren gehen, aber schwer zu prognostizieren, welche neuen entstehen“. Wie kann KI in der Medizin helfen? In vieler Hinsicht. Unser preisgekröntes neuronales Netz lernte beispielsweise schon 2012, auf Mikroskopbildern von Brustgewebe Vorstufen von Krebszellen fast so gut zu erkennen wie sonst nur ein erfahrener Histologe. Damals waren die Rechner noch etwa 30-mal teurer als heute. Das heißt heute, 2019, können wir für denselben Preis 30-mal mehr. Und viele, die bisher überhaupt keinen Zugang zu vernünftiger medizinischer Diagnostik hatten, werden wohl per Handy Bilder ihrer Krankheitssymptome an einen automatischen Arzt senden können, der nur bei Bedarf menschliche Experten hinzuzieht, die auf diese Weise viel mehr und auch weit entfernte Patienten werden betreuen können.

6.8  Interview mit Prof. Dr. Schmidhuber, Director und Professor am The Swiss AI Lab …

327

Intelligente Algorithmen sind seit Jahren klüger als die weltweit besten Spieler bei Schach, Dame, Backgammon, Jeopardy oder Go. Im Jahr 2017 brachte sich die Google-KI innerhalb von vier Stunden Schach selbst bei und schlug anschließend das beste Schachprogramm; 2018 stellten Toyota-Ingenieure ihren 1,90 Meter großen Basketballroboter Cue vor, der mit einer Treffsicherheit von 100 % jeden Korb versenkte. Um ihn zu trainieren, ließen die Entwickler Cue 200.000 Mal auf den Korb werfen. Wann gewinnen Roboter das erste Mal die Fußballweltmeisterschaft? Fußball ist unglaublich schwierig, weil da alles zusammenkommt: rasche Mustererkennung in der richtigen Welt, die viel komplexer ist als einfache Brettspiele wie Go, feinmotorische Abstimmung komplizierter Bewegungsabläufe in partiell beobachtbarer Umgebung usw. Man beachte: Allein Mustererkennung ist ja im Allgemeinen schon viel schwieriger als Schach. Seit 1997 ist der weltbeste Schachspieler kein Mensch mehr. Aber damals waren Rechner jedem Kind bei der Erkennung visueller Objekte oder Sprache weit unterlegen. Das hat sich erst jüngst durch unsere neuronalen Netze geändert – erst 2011 erzielte unser Team die ersten übermenschlichen visuellen Mustererkennungsresultate bei einem Wettbewerb im Silicon Valley. Beim Fußball muss man aber noch viel mehr können als bloße Mustererkennung – kein Roboter kann derzeit auch nur annähernd mit menschlichen Fußballspielern mithalten. Doch das wird auf Dauer nicht so bleiben. Wann also gewinnen menschenähnliche Roboter das erste Mal die Fußballweltmeisterschaft? Meine präzise Vorhersage lautet: in den nächsten Jahrzehnten. Sie vermuten, dass die technologische Singularität, in etwa um das Jahr 2050 eintreten könnte. Ab diesem Zeitpunkt wären wir Menschen ohne technische Hilfsmittel nicht mehr in der Lage, künstliche Intelligenz zu verstehen. Der AI Lab Director am MIT, Patrick Winston, prognostizierte den Zeitpunkt 2040. Zukunftsforscher Ray Kurzweil legte sich auf das Jahr 2045 fest, Softbank-CEO Masayoshi Son auf 2047 und Robotikwissenschaftler Hans Moravec auf 2050. Die KI-Experten-Umfrage von Nick Bostrom, Director am Future of Humanity Institute, ergab 2060. Damit kommen die KI-Vordenker zu einer recht ähnlichen Einschätzung. Warum genau werden wir Superintelligenzen voraussichtlich schon in wenigen Jahrzehnten erleben? Aus kosmischer Sicht ist es ja fast egal, ob es in 10 oder 100 oder 1000 Jahren passieren wird, denn selbst 1000 Jahre sind weniger als 10 % der Zivilisationsgeschichte, und letztere umfasst nur ein Millionstel der Weltgeschichte. Ganz zu schweigen davon, dass der sichtbare Kosmos wohl noch mindestens 1000 Mal älter werden wird, als er jetzt ist, und meiner Ansicht nach schon lange vorher (schon in den nächsten paar zig Milliarden Jahren) vollständig durchdrungen sein wird von raumfahrender KI.  Seit meinen Teenagerzeiten hoffe ich jedoch, dass ich zumindest die Anfänge dieser Umwälzung in den nächsten Jahrzehnten noch selbst erleben werde, sonst würde ich das alles mit weniger Enthusiasmus betreiben.

328

6  Im Gespräch mit Transformationsgestaltern und Vordenkern

Kurzprofil Prof. Dr. Jürgen Schmidhuber

Director & Professor at The Swiss AI Lab IDSIA – USI & SUPSI; Co-Founder & Chief Scientist, NNAISENSE

Fotograf: Gaia Cambiaggi, Bloomberg Businessweek

Seit seinem 15. Lebensjahr will Prof. Jürgen Schmidhuber eine sich selbst verbessernde künstliche Intelligenz bauen, die klüger ist als er selbst, um dann in Rente zu gehen, und KI bei der Kolonisierung des Weltalls zuzusehen. Seit 1987 publizierte er Pionierarbeiten zu universellen Problemlösern, seit 1991 zu Deep Learning mit tiefen künstlichen neuronalen Netzen. Die mächtigen rückgekoppelten neuronalen Netze seiner Forschungsgruppen an der TU München und am Schweizer KI Labor IDSIA (USI & SUPSI) waren die ersten, die internationale Wettbewerbe gewannen. Sie revolutionierten das maschinelle Lernen und die KI, u. a. auch Handschrifterkennung, Spracherkennung, maschinelle Übersetzung, automatische Bildbeschreibung und viele andere wichtige Felder und sind nun Milliarden von Nutzern zugänglich durch Google, Apple, Microsoft, Facebook, IBM, Baidu, Amazon und zahlreiche weitere Firmen. Sie werden jeden Tag viele Milliarden mal verwendet. DeepMind (für 600  Millionen  $ an Google verkauft, Schöpfer des weltbesten Go-Spielers) wurde stark beeinflusst durch seine ehemaligen Doktoranden (zwei der ersten vier DeepMinder sowie DeepMinds erste Doktoren der KI studierten in seinem Labor, einer war Mitgründer und einer der erste Angestellte).

6.8  Interview mit Prof. Dr. Schmidhuber, Director und Professor am The Swiss AI Lab …

329

Schmidhubers Team schuf die weltweit ersten tiefen Lerner, die Objektfindungsund Bildsegmentierungswettbewerbe gewannen, u. a. zur Krebsfrüherkennung. Sie erzielten 2011 im Silicon Valley auch die ersten übermenschlichen visuellen Mustererkennungsresultate. Seine Gruppe gewann neun internationale Wettstreite (mehr als jede andere) und schuf die ersten Verfahren, die ohne Lehrer Steuerstrategien direkt aus hochdimensionalen Videoeingaben lernten. Sein Team etablierte weiterhin das Feld mathematisch rigoroser universeller KI and optimaler universeller Problemlöser. Seine formale Theorie der Kreativität und der Neugier erklärt erstmals Kunst, Wissenschaft, Musik und Humor. Er verallgemeinerte die algorithmische Informationstheorie und auch die Vielweltentheorie der Physik, um eine elegante minimale Theorie aller konstruktiv berechenbarer Universen zu erhalten und führte das Konzept der Low-Complexity Art ein, die extreme algorithmische Form der Minimalkunst. Seit 2009 ist er Mitglied der Europäischen Akademie der Wissenschaften und der Künste. Er publizierte über 350 begutachtete Schriften, erhielt sieben Best-paper-/Best-video-Preise, den 2013 Helmholtz Award der International Neural Networks Society, und den 2016 IEEE Neural Networks Pioneer Award. Er ist auch Mitgründer und Chefwissenschaftler der Firma NNAISENSE, die die erste praktische Allzweck-KI erschaffen will.