Geoinformatik: Handbuch der Geodäsie, herausgegeben von Willi Freeden und Reiner Rummel [1. Aufl. 2019] 978-3-662-47095-4, 978-3-662-47096-1

Das sechsbändige Handbuch ist ein hochwertiges Werk über die Geodäsie unserer Zeit. Neben einer guten Lesbarkeit vermitt

461 72 8MB

German Pages XIV, 249 [259] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Geoinformatik: Handbuch der Geodäsie, herausgegeben von Willi Freeden und Reiner Rummel [1. Aufl. 2019]
 978-3-662-47095-4, 978-3-662-47096-1

Table of contents :
Front Matter ....Pages I-XIV
Atlas-Informationssysteme (Lorenz Hurni, René Sieber)....Pages 1-20
GeoVisual Analytics (Doris Dransch, Mike Sips, Andrea Unger)....Pages 21-44
3D-Visualisierung und Mixed Reality (Volker Paelke)....Pages 45-67
Geoinformation zur Navigationsunterstützung (Stephan Winter)....Pages 69-89
Geodateninfrastrukturen (Lars Bernard, Johannes Brauner, Stephan Mäs, Stefan Wiemann)....Pages 91-122
3D-Gebäudemodellierung und -generalisierung (Martin Kada)....Pages 123-156
Computer-gestützte Bewegungsanalyse (Patrick Laube, Joachim Gudmundsson, Thomas Wolle)....Pages 157-184
Räumliche Analyse durch kombinatorische Optimierung (Jan-Henrik Haunert, Alexander Wolff)....Pages 185-223
Räumliches Data-Mining und Big Geospatial Data (Liqiu Meng)....Pages 225-246
Back Matter ....Pages 247-249

Citation preview

Springer Reference Naturwissenschaften

Monika Sester  Hrsg.

Geoinformatik Handbuch der Geodäsie, herausgegeben von Willi Freeden und Reiner Rummel

Springer Reference Naturwissenschaften

Springer Reference Naturwissenschaften bietet Praktikern, Wissenschaftlern und Studierenden zielführendes Fachwissen in aktueller, modularisierter und verständlicher Form. Während traditionelle Handbücher ihre Inhalte bislang lediglich gebündelt und statisch in einer Druckausgabe präsentiert haben, bietet Springer Reference Naturwissenschaften eine um dynamische Komponenten erweiterte Online-Präsenz: ständige digitale Verfügbarkeit, frühes Erscheinen neuer Beiträge „online first“ und fortlaufende Erweiterung und Aktualisierung der Inhalte. Die Werke und Beiträge der Reihe repräsentieren den jeweils aktuellen Stand des Wissens des Faches, insbesondere auch in den Anwendungen und in der Verzahnung der verschiedenen Gebiete. Review-Prozesse sichern die Qualität durch die aktive Mitwirkung namhafter Herausgeber(inne)n und ausgesuchter Autor(inn)en. Springer Reference Naturwissenschaften wächst kontinuierlich um neue Kapitel und Fachgebiete. Weitere Bände in der Reihe http://www.springer.com/series/15072

Monika Sester Hrsg.

Geoinformatik Handbuch der Geodäsie, herausgegeben von Willi Freeden und Reiner Rummel

mit 111 Abbildungen und 5 Tabellen

Hrsg. Monika Sester Hannover, Deutschland

ISSN 2522-8161 ISSN 2522-817X (eBook) Springer Reference Naturwissenschaften ISBN 978-3-662-47095-4 ISBN 978-3-662-47096-1 (eBook) ISBN 978-3-662-53794-7 (Bundle) https://doi.org/10.1007/978-3-662-47096-1 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National-bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Vorwort der Gesamtherausgeber

In den Jahren 1961 bis 1968 erschienen die Bände der 10. und letzten Auflage des „Handbuch der Vermessungskunde“, jeweils mit einem Vorwort von Max Kneissl. Die erste Auflage aus den Jahren 1877 und 1878 stammte noch aus der Feder von Wilhelm Jordan (1842–1899). Sie fasste in zwei Büchern das Vermessungswesen der damaligen Zeit zusammen. Seither hat sich in der Geodäsie ein tiefgreifender Wandel vollzogen. Mit der stürmischen Entwicklung der Computertechnologie einhergingen neuartige und präzisere Verfahren des Messens, der mathematischen Darstellung und Analyse, und parallel hierzu eine beträchtliche Erweiterung des Aufgabenspektrums. Man könnte von zwei Modernisierungswellen sprechen: In den fünfziger bis siebziger Jahren des letzten Jahrhunderts ergaben sich aus neuen physikalischen Messprinzipien, den Anfängen elektronischen Rechnens und vor allem dem Eintritt ins Raumfahrtzeitalter grundlegend neue Perspektiven für die Geodäsie. In Ansätzen sind einige der daraus resultierenden Methoden und Verfahren in den sechs Bänden der zehnten Auflage des „Handbuch der Vermessungskunde“ bereits wieder zu finden. Seit einiger Zeit erleben wir eine zweite, vergleichbar grundlegende Welle der Veränderung der Geodäsie. Die komplette Verarbeitungskette von geodätischer Information, von ihrer Erfassung bis zur Anwendung geschieht ausschließlich digital, analoge geodätische Messverfahren wurden fast vollständig abgelöst von Verfahren, die auf der Verarbeitung elektromagnetischer Signale beruhen und es sind Satellitensysteme entstanden, mit denen die Erde global sehr schnell und genau vermessen werden kann. Auch die wissenschaftlichen und gesellschaftlichen Anforderungen an die Geodäsie haben sich verändert. War früher die Aufgabe der Geodäsie überwiegend eine statische Bestandsaufnahme unseres Lebensraums und der Erde als Ganzem, so widmet sich die Geodäsie heute primär Veränderungsprozessen. Neben die klassischen Aufgabengebiete im Ingenieurbereich und in der Landesvermessung trat die Geoinformatik mit all ihren Facetten der Bereitstellung von Geoinformation. Die geodätischen Beiträge zu der Erforschung des Erdsystems – sowohl in seiner Gesamtheit als auch in lokalen Teilsystemen und bei der Bewältigung der Herausforderungen des globalen Wandels – spiegeln ebenfalls eine neue Qualität der Geodäsie wider.

V

VI

Vorwort der Gesamtherausgeber

Das vorliegende Handbuch der Geodäsie war inspiriert durch das große Erbe des „Handbuchs der Vermessungskunde“ von Jordan-Eggert-Kneissl. Es wäre jedoch undenkbar, die neueren Entwicklungen in der Geodäsie mit vergleichbarer Akribie, Vollständigkeit und Detailgenauigkeit darstellen zu wollen, wie dies noch in den sechziger Jahren mit der zehnten Auflage des „Jordan-Eggert-Kneissl“ gelang. Stattdessen will das Handbuch der Geodäsie ein repräsentatives Gesamtbild des Sachstands der heutigen Geodäsie bieten. Die Geodäsie wird nicht flächendeckend behandelt, sondern exemplarisch anhand sorgfältig ausgewählter Einzelthemen. Die Beiträge sollen einen allgemeinverständlichen Zugang zu den Themen der aktuellen Forschung und Entwicklung bieten. Das Handbuch richtet sich an die Studierenden und Kollegen in Forschung und Praxis ebenso wie an Fachkollegen der Nachbardisziplinen, die sich über den Stand der Geodäsie und ihre Herausforderungen informieren wollen. Das Handbuch wurde zu diesem Zweck in sechs Einzelbände untergliedert. Für die Herausgabe eines jeden der sechs Einzelbände konnte ein renommierter Geodäsie-Kollege gewonnen werden. Die Herausgeber der Einzelbände sind in Klammer angegeben: • • • • • •

Erdmessung und Satellitengeodäsie (Rummel, München) Photogrammetrie und Fernerkundung (Heipke, Hannover) Ingenieurgeodäsie (Schwarz, Weimar) Geoinformationssysteme (Sester, Hannover) Bodenordnung und Landmanagement (Kötter, Bonn) Mathematische Geodäsie (Freeden, Kaiserslautern).

Den Herausgebern der Einzelbände wurde die Konzeption des Inhalts und die Auswahl der Autoren überlassen. Die Initiative zu diesem Handbuch geht zurück auf den Springer-Verlag. Wir bedanken uns sehr herzlich für die gute Zusammenarbeit mit den Vertretern des Verlags. Unser tiefer Dank geht an die Mitherausgeber und an alle Autoren dieser sechs Bände. Kaiserslautern und München April 2016

Willi Freeden Reiner Rummel

Vorwort zum Band Geoinformatik

Die Vielfalt und Menge der heute zur Verfügung stehenden räumlichen Daten erfordert leistungsfähige und effiziente Methoden der (semi-)automatischen Datenanalyse, um so deren Potential und auch die implizit in den Daten enthaltenen Informationen offen zu legen. Quellen räumlicher Daten sind neben traditionellen geodätischen Aufnahmen u. a. Bilder, Laserdaten, Trajektorien und sog. VGIDaten – Volunteered Geographic Information – wie sie beispielsweise durch Soziale Medien erfasst werden. Die Anwendungsmöglichkeiten der räumlichen Daten sind vielfältig und reichen von der Erfassung unserer Umwelt, dem Einsatz im Katastrophenmanagement, im Gesundheitswesen, im Bauwesen, in der Stadtplanung bis hin zum autonomen Fahren. Der vorliegende Band Geoinformatik beschreibt Technologien und Methoden zur automatisierten Verarbeitung raumbezogener Daten. Auf die Beschreibung grundlegender Prinzipien der Geoinformatik und der Geoinformationssysteme wird verzichtet, da sie in Standardwerken zu finden ist. Vielmehr wird anhand ausgewählter Beispiele auf verschiedene Aspekte des Fachs eingegangen. Die Themen umspannen dabei Fragen der Kartographie, der Visualisierung und visuellen Inspektion, der Analyse raum-zeitlicher Daten durch leistungsfähige Methoden, sowie der effizienten Datenbereitstellung durch Geodateninfrastrukturen. Im Folgenden wird ein kurzer Überblick über die Themen gegeben: Atlanten als systematische angelegte Sammlung von Informationen und Karten ausgewählter Maßstäbe zu einem bestimmten Sachverhalt, einem Gebiet oder topographischen Erscheinungen sind ein Jahrhunderte altes Mittel zu Inspektion unserer Umwelt. Atlas-Informationssysteme (AIS) als heutige Form von Atlanten dienen dazu, mittels Karten und Multimedia-Elementen Sachverhalte und Prozesse interaktiv zu visualisieren, zu explorieren und zu analysieren. Sie ermöglichen eine raum-zeitliche und thematische Kombination der Kartendaten zur Informationsgewinnung und Entscheidungsfindung. Lorenz Hurni und René Sieber beschreiben grundlegende Konzepte von AIS und deren interaktive Funktionalität. Das Ziel von Visual Analytics ist, leistungsfähige Werkzeuge für die Analyse und Interpretation von Daten bereitzustellen. Dabei geht man davon aus, dass das intelligente Zusammenspiel zwischen Computer und Mensch ermöglicht, komplexe Zusammenhänge in den Daten zu interpretieren und zu verstehen – wobei die jeweiligen Fähigkeiten optimal ausgenutzt werden. Doris Dransch, Mike Sips, und VII

VIII

Vorwort zum Band Geoinformatik

Andrea Unger beschreiben in ihrem Beitrag wie die generellen Konzepte von Visual Analytics für die Analyse und Interpretation raum-zeitlicher Daten genutzt werden können. Neue Visualisierungsmöglichkeiten wie Virtuelle und Erweiterte (Augmented) Realität (VR und AR) haben in der jüngeren Vergangenheit einen rasanten Aufschwung erfahren – insbesondere durch die zunehmende Verfügbarkeit von leistungsfähiger Hardware und 3D-Daten. VR und AR können die Kommunikation von räumlichen Informationen bedeutend verbessern bzw. unterstützen. Volker Paelke hebt in seinem Beitrag hervor, dass sie das Potential haben, einen gegebenen Anwendungskontext intuitiv, schnell und korrekt vermitteln können, was insbesondere Laien im Umgang mit Geodaten ermöglicht, die Lücke zwischen abstrakter Geodateninformation und Realität intuitiv zu überbrücken. Sich im Raum zurechtzufinden ist eine grundlegende Fähigkeit des Menschen. Für die Navigation werden traditionell Karten eingesetzt. Stephan Winter beschreibt in seinem Beitrag, welche Geoinformatikkonzepte wichtig sind, um Menschen noch besser und intuitiver bei ihrer Navigation zu unterstützen. Hierzu zählen insbesondere Landmarken und ihre Beziehungen untereinander. Grundlegend wichtig ist darüber hinaus der Kontext des Informationssuchenden, der entsprechend modelliert werden muss. Geodateninfrastrukturen (GDI) der ersten Generation dienen der Recherche, Visualisierung und dem Bezug von verteilt vorliegenden Geodaten und sind mittlerweile weitgehend etabliert. Im Beitrag von Lars Bernard, Johannes Brauner, Stephan Mäs und Stefan Wiemann werden die Grundlagen hierzu vorgestellt, der aktuelle Stand beleuchtet und auch deutlich gemacht, welche zukünftigen Funktionalität insbesondere von Forschungsdateninfrastrukturen zu erwarten sind, um größere Synergien in der flexiblen (Wieder-)Verwendung von Geodaten zu ermöglichen. Martin Kada gibt in seinem Beitrag eine Übersicht über 3D-Stadtmodelle und die Möglichkeit ihrer Generalisierung. Hier kommen wie auch in der kartographischen Generalisierung üblich, geometrisch-semantische Ansätze zur Anwendung. Verschiedene Generalisierungsstufen sind zum einen für die Visualisierung wichtig, in zunehmendem Maße jedoch auch für Simulationen oder auch für die Integration und Fusion mit Stadtmodellen, die aus anderen Disziplinen erhoben werden, wie beispielsweise dem Bauingenieurwesen oder der Architektur. Raum-zeitliche Bewegungsspuren – Trajektorien – sind eine relative neue Datenquelle, die in jüngerer Zeit nicht zuletzt auch durch die Verfügbarkeit entsprechender Sensoren in großem Umfang nutzbar sind. Diese Information ermöglicht neue Einsichten in dynamische geographische Prozesse, stellt aber auch die traditionell eher statischen Werkzeuge der Raumanalyse infrage. Der Beitrag von Patrick Laube, Joachim Gudmundsson und Thomas Wolle gibt einen Überblick über Bewegungsdaten im Allgemeinen, die Theorie der Bewegungsmodellierung und -analyse sowie eine Reihe wichtiger Anwendungsfelder der computer-gestützten Bewegungsanalyse. Optimierung und Ausgleichung sind grundlegende Methoden in der geodätischen Datenanalyse. Jan-Henrick Haunert und Alexander Wolff beschreiben in

Vorwort zum Band Geoinformatik

IX

ihrem Beitrag die Grundlagen der kombinatorischen Optimierung als mächtiges Werkzeug für viele Aufgaben in der räumlichen Analyse. Anhand exemplarischer Fragestellungen werden die Prinzipien beschrieben und dargelegt. Große Bedeutung hat, dass diese Ansätze Basis für heuristische Verfahren sein können, um eine erforderliche Abschätzung der erreichbaren Qualität vereinfachender Lösungen zu ermöglichen. Geodaten haben oft die Eigenschaft, dass sie in großen Mengen, in heterogener Form und Qualität und in unterschiedlichen räumlichen und zeitlichen Auflösungen bereitstehen. Dies sind Eigenschaften, die Big Data auszeichnen. Liqiu Meng beleuchtet in ihrem Beitrag wichtige Aspekte der Verarbeitung solcher Daten und geht hierbei insbesondere auf das räumliche Data Mining ein. Das Konzept dieses Buches beinhaltet, dass neue Beiträge flexibel hinzugefügt werden können, die dann in späteren Auflagen auch in Buchform gedruckt werden. Dies stellt sicher, dass das Buch als Referenz für diejenigen gewählt werden kann, die an gesicherten Informationen im Geoinformatikbereich interessiert sind. So ist heute schon abzusehen, dass das Thema „Deep Learning“ für die Analyse von Geodaten eine ausgezeichnete Rolle spielen wird: so zeigen schon sehr viele Anwendungen in diesem Bereich hervorragende Ergebnisse, die mit herkömmlichen Methoden nicht erreichbar waren, etwa in der Analyse von Bewegungstrajektorien (z. B. im Hinblick auf Bewegungsverhalten), der Erzeugung von realitätsnahen Visualisierungen, aber auch in der Erkennung von Strukturen in räumlichen Daten. Mein großer Dank geht an die Autoren der Beiträge dieses Bandes, denen es mit ihrer hervorragenden Expertise gelungen ist, die faszinierenden Möglichkeiten der Geoinformatik anschaulich und wissenschaftlich fundiert zu vermitteln. Hannover Juli 2019

Monika Sester

Inhaltsverzeichnis

1

Atlas-Informationssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lorenz Hurni und René Sieber

1

2

GeoVisual Analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doris Dransch, Mike Sips und Andrea Unger

21

3

3D-Visualisierung und Mixed Reality . . . . . . . . . . . . . . . . . . . . . . . . . . . . Volker Paelke

45

4

Geoinformation zur Navigationsunterstützung . . . . . . . . . . . . . . . . . . . Stephan Winter

69

5

Geodateninfrastrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lars Bernard, Johannes Brauner, Stephan Mäs und Stefan Wiemann

91

6

3D-Gebäudemodellierung und -generalisierung . . . . . . . . . . . . . . . . . . . 123 Martin Kada

7

Computer-gestützte Bewegungsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . 157 Patrick Laube, Joachim Gudmundsson und Thomas Wolle

8

Räumliche Analyse durch kombinatorische Optimierung . . . . . . . . . . 185 Jan-Henrik Haunert und Alexander Wolff

9

Räumliches Data-Mining und Big Geospatial Data . . . . . . . . . . . . . . . . 225 Liqiu Meng

Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247

XI

Autorenverzeichnis

Lars Bernard Professur für Geoinformatik, Technische Universität Dresden, Dresden, Deutschland Johannes Brauner Technische Universität Dresden,Dresden, Deutschland Doris Dransch Sektion Geoinformatik, Deutsches GeoForschungsZentrum – GFZ, Potsdam, Deutschland Joachim Gudmundsson NICTA,Sydney, NSW, Australien Jan-Henrik Haunert Institut für Geoinformatik und Fernerkundung (IGF), Universität Osnabrück, Osnabrück, Deutschland Lorenz Hurni Institut für Kartografie und Geoinformation, ETH Zürich, Zürich, Schweiz Martin Kada Institut für Geodäsie und Geoinformationstechnik, Technische Universität Berlin, Berlin, Deutschland Patrick Laube Zürcher Hochschule für Angewandte Wissenschaften, ZHAW, Wädenswil, Schweiz Stephan Mäs Technische Universität Dresden,Dresden, Deutschland Liqiu Meng Lehrstuhl für Kartographie, TU München, München, Deutschland Volker Paelke Human-Computer-Interaction, Bremen University of Applied Sciences, Bremen, Deutschland René Sieber Institut für Kartografie und Geoinformation, ETH Zürich, Zürich, Schweiz Mike Sips Deutsches GeoForschungsZentrum GFZ, Potsdam, Deutschland Andrea Unger Deutsches GeoForschungsZentrum GFZ, Potsdam, Deutschland Stefan Wiemann Technische Universität Dresden, Dresden, Deutschland

XIII

XIV

Autorenverzeichnis

Stephan Winter Department of Infrastructure Engineering, The University of Melbourne, Parkville, VIC, Australien Alexander Wolff Lehrstuhl für Informatik I, Universität Würzburg, Würzburg, Deutschland Thomas Wolle NICTA,Sydney, NSW, Australien

1

Atlas-Informationssysteme Lorenz Hurni und René Sieber

Inhalt 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Atlanten und Atlas-Informationssysteme (AIS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Was ist ein Atlas, was ein Atlas-Informationssystem? . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Historische Entwicklung der AIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 AIS-Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Generelle Ansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Interaktive Funktionalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Mensch-Maschine Interaktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Interaktionsmöglichkeiten von AIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 kartografischen Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Grafische Benutzeroberfläche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 Kartenbasierte Plattformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Welt- und Schulatlanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 National- und Regionalatlanten, Stadtatlanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Topografische Atlanten, Geoportale und Webservices . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Thematische und Statistische Atlanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Ausblick auf die künftige Entwicklung von AIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Web-Links . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 2 2 4 5 5 9 9 10 12 14 16 16 16 16 17 17 17 19 20

Zusammenfassung

Atlas-Informationssysteme (AIS) – systematisch angelegte und kuratierte digitale Sammlungen raumbezogener Informationen – dienen dazu, mittels Karten und Multimedia-Elementen Sachverhalte und Prozesse interaktiv zu visualisieren, zu explorieren und zu analysieren. Sie ermöglichen eine raum-zeitliche

L. Hurni () · R. Sieber Institut für Kartografie und Geoinformation, ETH Zürich, Zürich, Schweiz E-mail: [email protected]; [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_59

1

2

L. Hurni und R. Sieber

und thematische Kombination der Kartendaten zur Informationsgewinnung und Entscheidungsfindung. Es werden grundlegende Konzepte von AIS und deren interaktive Funktionalität beschrieben, sowie die Palette der kartografischen 2Dund 3D-Visualisierung aufgezeigt. Schlüsselwörter

Atlas-Informationssystem · Digitaler Atlas · Grafische Benutzerschnittstelle · Interaktive Kartografie · Atlaskonzepte · Atlasfunktionen · Atlastypen

1

Einleitung

Die Kartografie dient dazu, raumbezogene topografische und thematische Aspekte grafisch prägnant darzustellen. Als hauptsächliches Darstellungsmedium dient die Karte; daraus entwickelten sich die Atlanten, eine Zusammenstellung von Karten, Diagrammen und Texten. Die ersten Atlanten entstanden im Mittelalter (16. Jh.) um die Erde und insbesondere unbekannte Gebiete topografisch umfassend darzustellen. Obwohl sich die Inhalts- und Darstellungskonzepte in den folgenden Jahrhunderten veränderten, blieb die gedruckte Form bis Mitte des 20. Jh. das einzige Ausgabemedium für kartografische Erzeugnisse. Der technologische Sprung, welche der Übergang von der analogen zur digitalen Kartografie in den 1980er-Jahren verursachte, stimulierte auch die Entwicklung von interaktiven Atlanten. Geografische Informationssysteme (GIS), Computer Aided Design (CAD) und Desktop Publishing Systeme (DTP) sowie die dabei hervorgerufenen Erzeugnisse von geometrischen und thematischen Daten waren die Katalysatoren sowohl der digitalen wie der interaktiven Kartografie. Erste sog. Elektronische Atlanten wurden in den 1990er-Jahren publiziert (Electronic Atlas of Canada, Electronic Atlas of Arkansas). Sie wiesen noch eine sehr limitierte Funktionalität auf; deren Basisfunktionen (Zoom, Suche, Layer-Wahl) sind jedoch bis heute elementar. In den folgenden Jahrzehnten entwickelten sich die interaktiven Atlanten bezüglich thematischem Inhalt, Daten und Technologie hin zu digitalen RaumInformationssystemen für ein breites Publikum Dabei spielt auch die Gestaltung der Grafischen Benutzerschnittstelle (GUI: Graphical User Interface) eine wichtige Rolle. Bezüglich Informationsträger wurden im digitalen Umfeld zu Beginn die Datenträger CD-ROM und DVD verwendet; ab dem 21. Jahrhundert werden Atlanten meist via Internet als App oder direkt im Web-Browser zugänglich gemacht.

2

Atlanten und Atlas-Informationssysteme (AIS)

2.1

Was ist ein Atlas, was ein Atlas-Informationssystem?

Ein Atlas kann als ein Kartenwerk bezeichnet werden, welches mehr beinhaltet als die schlichte Aneinanderreihung von Karten. Das Atlas-Konzept beinhaltet eine narrative Struktur, welche entweder räumlich, zeitlich, thematisch oder maßstabsbe-

1 Atlas-Informationssysteme

3

zogen aufbereitet und zugänglich gemacht ist. Oft findet sich als didaktisches Mittel neben dieser erzählenden Struktur auch eine komparative Struktur, welche Vergleiche auf raum-zeitlicher oder thematischer Ebene ermöglicht. Umfasst, unterstützt und begleitet wird diese Strukturierung durch ein einheitliches Layout und Kartendesign. Atlanten werden oft nach Typen unterschieden, um maßgeschneidert auf das Zielpublikum einen Atlas zu erstellen und zu vermarkten. Die Kriterien der Typisierung sind: Inhalt, Nutzung, Raum/Gebiet, Publikationsform/Datenträger. Inhaltlich lassen sich die Atlanten einteilen in Topographische Atlanten, Thematische Atlanten, Statistische Atlanten, Hydrologische Atlanten, Historische Atlanten usw. Nach Nutzung kann eine Einordnung in z. B. Schul-Atlanten, Straßen-Atlanten, oder auch Blinden-Atlanten vorgenommen werden. Nach dem Gebiets-Kriterium ergibt sich eine Klassierung in Weltatlanten, Nationalatlanten, Regionalatlanten, Stadtatlanten. Wird als Kriterium die Publikationsform resp. der Datenträger gewählt, so ist eine Einteilung in gedruckte Atlanten (gebunden, gelocht/Papier, Plastik) und digitale Atlanten (CD/DVD, USB-Stick, Cloud) möglich. Die Typisierung ist indessen kein Alleinstellungsmerkmal, oft sind mehrere Typen zugleich involviert. Die Bedeutung der Typisierung von Atlanten hat in den letzten Jahren deutlich abgenommen; sie wird im digitalen Bereich von nutzer-zentrierten Ansätzen wie z. B. UsabilityStudien oder User Activity Tracking abgelöst. Ein Atlas-Informationssystem (AIS) ist eine systematisch angelegte, zielgerichtete und kuratierte Sammlung raumbezogener Informationen in digitaler Form. Dies ermöglicht eine nutzer-orientierte Exploration der Kartendaten zur Informationsgewinnung und Entscheidungsfindung, sowie die Visualisierung von sichtbaren und unsichtbaren Zuständen, Phänomenen und Prozessen Dabei spielt die Interaktion des Nutzenden mit den Karteninhalten und den Atlas-Tools eine wesentliche Rolle. Wie in konventionellen Print-Atlanten, besteht ein AIS aus der Sicht der Benutzenden hauptsächlich aus einer harmonisierten Sammlung von Karten zu verschiedenen Themen, mit einem sorgfältig abgestimmten Set an Grund-Maßstäben resp. Generalisierungs-Stufen. Die unterschiedlichen Kartentypen besitzen eine einheitliche Legende und Symbolisierung. Der Zugang zu den Karten ist durch thematische und geografische Indizes (Gazetteers) gewährleistet, welche über ein Suchfeld, ein Drop-Down-Menu oder via Karten-Miniaturen (Thumbnails) angesprochen werden können AIS verfügen über spezifische interaktive Funktionen zur räumlichzeitlichen oder thematischen Navigation, zur Abfrage und Kartendaten-Analyse, sowie zur Visualisierung im 2D- und/oder 3D-Modus. Im Gegensatz zu geografischen Informationssystemen (GIS) werden in AIS die Daten (karto-)grafisch aufbereitet und die Funktionalität wird bewusst limitiert und eingeschränkt, um eine benutzerfreundliche Bedienung der Visualisierungs- und Analyse-Optionen zu erreichen. In AIS werden die Karten(daten) häufig situativ mit zusätzlichen multimedial präsentierten Informationen verknüpft. Als Multimedia-Information können Erläuterungstexte, Grafiken, Animationen, Videos, oder Ton-Dokumente verwendet werden, welche mit der Karte oder den geographischen Kartenelementen verbunden sind. Der Zugang zu den Daten und Funktionen wird nutzer-orientiert über eine Grafische Benutzerschnittstelle (Atlas-GUI) gewährleistet. Zusammengefasst besteht der Mehrwert und die Vorteile von AIS gegenüber den gedruckten Atlanten in: Interaktivität, freie Navigation und Exploration,

4

L. Hurni und R. Sieber

Animationen, Nutzung der Karten als Interface, dynamisches Atlas-GUI, Integration von Multimedia-Elementen, Update-Möglichkeit, Anpassung an die Nutzergruppe [3, 14].

2.2

Historische Entwicklung der AIS

Der technische Entwicklungssprung, welcher die Umstellung von der analogen zur digitalen Kartografie in den 1980er-Jahren verursachte, stimulierte auch die Entwicklung von interaktiven Atlanten. GIS, CAD-Systeme, DTP-Systeme und die damit erzeugten digitalen Geodaten wirkten dabei als Katalysatoren der digitalen und interaktiven Kartografie. Es ist umstritten, welcher Atlas als das erste digitale AIS gilt: einige Autoren geben an, dass eine frühe Version des Electronic Atlas of Canada (Abb. 1) sei der erste digitale Atlas [13]; andere sind der Ansicht, dass dies der Electronic Atlas of Arkansas (1989) war [18]. Die ersten digitalen AIS verfügten über eine eingeschränkte Funktionalität, meist waren nur eine Suchfunktion, Zoom und Pan als räumliche Verschiebung sowie der Wechsel von Themen (Layers) möglich. Während diese (und weitere) Atlanten selbst entwickelt wurden, basierten andere (wie der Nationalatlas Schweden und der Nationalatlas Spanien) auf kommerzieller GIS-Software. In den folgenden Jahren entwickelten sich die AIS bezüglich thematischem Inhalt, Datenvolumen und Technologie. Verschiedene Länder produzierten Nationalatlanten auf CD-ROM, entweder als digitale Version eines Papieratlas (wie der Nationalatlas Deutschland, Abb. 1) oder als vollständig interaktive Version (wie der Atlas der Schweiz – interaktiv). In den späten 1990er-Jahren begannen die nationalen Vermessungsämter, ihre topografischen Kartenserien auf CD-ROM resp. DVD als Topografische Atlanten zu publizieren. Eine dritte Gruppe von Atlanten wurden als Gegenstücke zu konventionellen Schul- oder Weltatlanten konzipiert, wie z. B. der Schweizer Weltatlas – interaktiv [16]. Aus datentechnischer Sicht basierten die ersten Atlanten vollständig auf Rasterdaten, ebenso die nationalen topografischen Kartenserien. Moderne interaktive AIS verwenden Vektordaten und

Abb. 1 Electronic Atlas of Canada (links) und Nationalatlas Deutschland (rechts)

1 Atlas-Informationssysteme

5

Statistikdaten, mit denen dynamisch symbolisierte Karten generiert werden können (wie z. B. der Tirol Atlas, der Statistische Atlas der Schweiz, oder der GenderAtlas von Österreich). Neueste Entwicklungen versuchen zudem, 3D-Atlanten mit Karten aus dreidimensionalen Höhenmodellen, Layern und Kartenobjekten zu erstellen (Atlas der Schweiz – online).

3

AIS-Konzepte

3.1

Generelle Ansätze

Atlasinformationssysteme basieren konzeptionell auf zwei Grundgedanken: einerseits auf dem Multimedia-/Hypermedia-Konzept, andererseits auf dem GISKonzept. Das Multimedia-/Hypermedia-Konzept enthält die Idee, dass beliebige Medien miteinander kombiniert werden können: „Multimedia is any combination of text, graphic art, sound, animation, and video that is delivered by computer. When you allow the user – the viewer of the project – to control what and when these elements are delivered, it is interactive multimedia. When you provide a structure of linked elements through which the user can navigate, interactive multimedia becomes hypermedia.“ [22, S. 3] Das GIS-Konzept erweitert den oben skizzierten interaktiven Ansatz mit der geografisch-analytischen Komponente. Wie in einem GIS können heutige AIS aus einer Kombination von topografischen und thematischen Daten direkt Karten „onthe-fly“ erzeugen [5]. Dabei kann entweder ein „Multimedia in GIS“- oder ein „GIS in Multimedia“-Ansatz [2] verfolgt werden. Bei Ersterem baut das AIS – oft mit einer eingeschränkten Benutzerfreundlichkeit – auf einem GIS auf. Ein GISbasiertes AIS bietet den Vorteil, dass die Analysefunktionen bereits zur Verfügung stehen. Beim „GIS in Multimedia“-Ansatz werden hingegen nur ausgewählte GISFunktionen in ein AIS transponiert, wobei die technische und grafische Umsetzung sehr ressourcen-aufwendig sein kann. Die Vorteile hier liegen bei einer flexibleren Umsetzung und einer besseren Kommunikations-Qualität (Abb. 2). Bei beiden Ansätzen ist der Grad der Interaktivität sehr hoch, wobei ein GIS sowohl beim Thema wie auch bei der Bedienung Expertenwissen voraussetzt. In einem AIS wird die Interaktivität zielgerichtet einschränkt; damit wird die Bedienung erleichtert, ohne dass die Benutzenden dies als störend empfinden. Neben diesen beiden eher technisch orientierten Konzepten fließen weitere Prinzipien in die Konzeption ein. Moderne interaktive AIS verwenden meist einen holistischen, ganzheitlichen Ansatz. Diese Betrachtungsweise steht im Gegensatz zum atomistischen Ansatz und versucht die Information zum Thema möglichst facettenreich und umfassend anzubieten, sodass die Benutzenden schließlich ein Gesamtbild des Kartenthemas erhalten. Der Zugang zu dieser Information ist in AIS hingegen strukturell meist vielschichtig nach den Prinzipien der Non-Linearität und der Serendipität, oder aber nach Narration resp. Storytelling angelegt.

6

L. Hurni und R. Sieber

Abb. 2 Vergleich zwischen AIS und GIS bezüglich Interaktivität, thematischer Komplexität und Kommunikations-Qualität ( [10], nach [11])

Die Non-Linearität erlaubt es, eine gegebene Struktur aufzubrechen und die Abfolge der Kartenthemen wie auch die Kombination der Kartenebenen beliebig zu wählen. Eng verknüpft damit ist das Serendipitäts-Prinzip, welches eine zufällige Beobachtung von etwas ursprünglich nicht Gesuchtem bezeichnet, das sich als neue und überraschende Entdeckung erweist [1, 7]. Diese Prinzipien werden durch die angebotene Interaktivität von AIS stark gefördert. Storytelling wird im Gegensatz dazu benutzt, um die Information adäquat aufbereitet zu den Benutzenden zu bringen, sie müssen sie anschließend nur aktivieren. Mit Hilfe narrativer Techniken wird das Thema mit Informationen zu zeitlichem Ablauf, zu Hintergründen und Zusammenhängen, sowie zu Hinweisen zu „versteckter“ Information angeboten [20]. Dabei geht es darum, das Thema ganzheitlich zu erfassen und durch immersives Eintauchen in die Karte resp. Geschichte Emotionalität zu erzeugen. Storytelling kann direkt in der Karte (intrinsisch) oder mit Hilfe der Karte (extrinsisch) erfolgen. Beim intrinsischen Storytelling kommt etwa eine zeitliche Abfolge des Themas (z. B. die territoriale Entwicklung eines Landes) zum Einsatz, angereichert mit weiteren Hinweisen (z. B. Bewegungspfeile und Icons), sodass die Geschichte unmittelbar in der Karte nachvollziehbar wird. Beim extrinsischen Storytelling werden dagegen außerhalb der Karte Erzählformate (z. B. Journal, Guided Tours) und Tools (z. B. Vergrößerungsglas) bereitgestellt. Die Grenzen zwischen Non-Linearität, Serendipität, und Storytelling verlaufen fließend; es ist meist möglich, zwischen zufälligem Entdecken und strukturierter Narration zu wechseln. AIS können zudem nach den weiteren Technik-getriebenen Kriterien wie: Datentyp, Verbreitungsmedium, oder Interaktivitätsgrad charakterisiert werden (Tab. 1). Heute verwenden die meisten Atlanten Raster- und Vektordaten; es kann auch eine Verschiebung in Richtung relationaler, objektorientierter Datenbanken festgestellt

1 Atlas-Informationssysteme

7

Tab. 1 Charakteristiken und Konzepte von AIS (nach [9]) Hauptcharakteristik Charakteristik/ Funktion Datentyp und Raster Modellierung Vektor

Medium, Kommu- Text nikationskanal Sprache

Untergruppe/ Bemerkungen

Stationär Portabel Offline Lokales System (Client-basiert) Online (1:1) Client-Serverbasiert Verteilt (1:n) Ein Client, mehrere Server Mehrfach verteilt Mehrere Clients, (n:m) mehrere Server

Interaktivitätsgrad View-only

Raster GIS, Kartenebenen in Rasterformat DTP-Files mit Attributen

Sequentiellattributiv RelationalDatenbanksystem (Geometrie und topologisch thematische Daten) Objekt-orientiert- OO-Geodatenbanken topologisch Tastatur, alphanumerischer Output

Bildschirm

Verbreitungsgrad des Systems

Beispiele

Anzeige vorbereiteter Karten Interaktiv Abfragen nach Kriterien, Anpassung des Outputs/Displays Einfach-analytisch Kombinierte Abfragen, komplexere (GIS-ähnliche) AnalyseFunktionen KonstruktivDirekte analytisch Verarbeitung von Benutzerdaten, Grafische Gestaltungsmöglichkeiten AutomatischAutomatisierte analytisch Datenanalyse und regelbasierte Verarbeitung

Sprach-Anweisungen bei Fahrzeug-Navigationssystemen Computer-Bildschirm Tablet, Smartphone AIS auf Speichermedium Schweizer Weltatlas – interaktiv Web Mapping Services (WMS) Sensor-Netzwerke, verbunden mit verteilten Echtzeit-Informationssystemen Informationskarten im Internet

Atlas der Schweiz – interaktiv, 2010

AIS mit GIS-Funktionen, aber vorbereiteten Daten (Atlas der Schweiz 2, 2014)

Web-GIS, Webservices für Karten-Projektionen

Kartografische Echtzeit-WebInformationssysteme (z. B. online Lawinen-Warnkarten, online Generalisierung) (Fortsetzung)

8

L. Hurni und R. Sieber

Tab. 1 (Fortsetzung) Bevorzugung der kartografischen Funktionalität

KartenKartenfunktionen Informationssystemeals HauptInteraktionstool Generelle Informa- Kartenfunktionen tionssysteme als weitere Abfrage- und Export-/ImportMöglichkeit

AIS, Web-Karten-Informationssysteme Digitale Enzyklopädien (z. B. Encarta), UmweltInformationssysteme, Immobilien-Portale

Abb. 3 Client-Server Szenarien für räumliche Informationssysteme

werden. Bezüglich Interfaces basieren die meisten AIS auf den Input-/OutputDevices Tastatur, Maus und Desktop-Bildschirm; hier zeichnet sich ein Übergang zu Touch-Interfaces auf mobilen Geräten wie Tablets oder Smartphones ab. AIS können aufgrund ihrer Interaktivität im Umgang mit den Karten in drei Gruppen eingeteilt werden: View-only Atlanten, interaktive Atlanten und analytische Atlanten [17]. Letztere Gruppe kann noch weiter aufgeteilt werden in einfache, konstruktive und automatisch-analytische Atlastypen [9]. Im Weiteren erweitern das Internet und die mobilen Technologien den Grad der AIS-Verbreitung entscheidend. Betrachtet man die Client-Server-Struktur, so ergeben sich vier Szenarien, wie ein AIS aufgebaut werden kann. In Szenario 1 liegen alle Daten und die Applikation auf der Kundenseite, wie dies z. B. bei DVDAtlanten der Fall ist/war. In Szenario 2 werden die Applikation und die Basisdaten auf der Kundenseite gespeichert, die thematische Information auf der Serverseite. In Szenario 3 liegt nur noch die Applikation auf der Kundenseite, und schließlich werden in Szenario 4 die Applikation und die Daten über ein Webinterface einfach zugänglich gemacht (Abb. 3).

1 Atlas-Informationssysteme

4

Interaktive Funktionalität

4.1

Mensch-Maschine Interaktion

9

Eine der herausragenden Eigenschaften von AIS ist die Möglichkeit, mit den Karten zu interagieren. Diese interaktive Kommunikation basiert auf dem HumanComputer-Interaction-Modell, kurz HCI von [12]. Darin werden sieben Stufen in einem zirkulären System beschrieben, wie Menschen mit virtuellen Objekten interagieren: 1 Bestimmung des Ziels der Interaktion, 2 Bestimmung der Absicht, 3 Formulierung der Aktion, 4 Ausführung der Aktion, 5 Erkennung des Systemstatus, 6 Interpretation des Systemstatus, 7 Evaluierung des visuellen Ergebnisses. [19] fügt diesem Kreislauf fünf Kartenlese/erfassungs-Ziele (objectives), die Operatoren (Funktionen) und die Operanden (Kartenobjekte) hinzu, mit denen die Interaktion stattfindet. Die fünf Kartenlese-Ziele sind – mit steigendem Anspruch: Identifizieren, Vergleichen, Einordnen/Rangieren, Assoziieren und Beschreiben. Damit werden die Fertigkeiten, die im Umgang mit Atlanten erforderlich sind, umfassend beschrieben (Abb. 4). Der Grad der Interaktivität, ein wesentliches Element der Benutzerfreundlichkeit eines AIS, basiert hauptsächlich auf der Vielfältigkeit und Verfügbarkeit der kartographischen Funktionen oder Operatoren Die Operatoren, als Grundelemente der Interaktion (interaction primitives), werden nach [19] in die zwei Gruppen der „Enabling Operators“ und „Work Operators“ eingeteilt. Zur ersten Gruppe

Abb. 4 Die sieben Phasen des Interaktions-Modells [12], erweitert nach [19]

10

L. Hurni und R. Sieber

gehören die Funktionen: Import, Export, Sichern, Editieren und Kommentieren (Annotate) einer Karte. Zur zweiten Gruppe der „Work Operators“ zählen: Reexpress (Wechsel zwischen mehreren Kartentypen), Arrange (Darstellung mehrerer Karten gleichzeitig), Sequence (zeitliche Abfolge), Resymbolize (Wechsel der Symbolgrößen/-typen), Overlay (Wechsel der Themen-Layer), Reproject (Wechsel der Kartenprojektion), Pan (Verschieben der Karte), Zoom (Vergrößern/Verkleinern der Karte), Filter (Eingrenzung einer Abfrage), Search (geografische Suche), Retrieve (Abfrage von Kartenelementen), Calculate (Berechnung von Distanzen, Wertdifferenzen usw.). Angewendet werden die Operatoren auf die Operanden – physische oder virtuelle Objekte –, welche als Geodaten in Beziehung zu Raum, Zeit und Attribute stehen.

4.2

Interaktionsmöglichkeiten von AIS

Für Atlanten kann dieses Modell spezifisch ausgeweitet und verfeinert werden. Insbesondere die Gruppe der Operatoren lässt sich nach [4] und [9] in fünf funktionelle Untergruppen gliedern: Generelle Funktionen, Navigationsfunktionen, Didaktikfunktionen, Visualisierungsfunktionen, und GIS-Funktionen Die Gruppe der Generellen Funktionen deckt sich in etwa mit den „Enabling Operators“, wie aus der Tafel 2 ersichtlich ist. Die Navigationsfunktionen enthalten Operatoren zur räumlichen, zeitlichen sowie thematischen Navigation (Abb. 5). Aus der Gruppe der Didaktikfunktionen werden die Erklärungsfunktionen häufig verwendet, seltener hingegen die Funktionen zur Selbstkontrolle. Eine wichtige Gruppe bilden die Funktionen zur kartografischen Visualisierung, welche den Kartentyp und das Look-and-feel einer Karte steuern. Die GIS-Funktionen werden meist nutzerbezogen eingesetzt, d. h. dass die Tools ohne Expertenwissen bedienbar und die Ergebnisse einfach nachvollziehbar sind. Es bleibt anzumerken, dass in AIS oft ein zu großes Angebot an Funktionen besteht; in AIS mit online-Verbindung lässt sich die Nutzung der einzelnen Funktionen mittels User Activity Tracking detailliert verfolgen (Tab. 2).

Abb. 5 Navigationsfunktionen (mit Länderwahl, Zeitregler, Themenliste), in einem frühen AIS (3D Atlas, 3DO Electronic Arts 1994) und Analysefunktionen (Streu-, Stabdiagramm) im OECDStatistikatlas Regional eXplorer (2018)

1 Atlas-Informationssysteme

11

Tab. 2 Hauptfunktionen eines AIS [4] Funktionsgruppen Generelle Funktionen

Funktions-Untergruppen

NavigationsfunktionenRäumliche Navigation

Zeitliche Navigation

Thematische Navigation

kartografische Kartenmanipulation Visualisierungsfunktionen „Redlining“

Explorative Datenanalyse

GIS-Funktionen

Raum- und objekt-bezogene Abfrage Thematische Abfrage Analytische Funktionen

Didaktische Funktionen

Erklärende Funktionen

Selbstkontrolle-Funktionen

Funktionen (Auswahl) Moduswahl, Sprachwahl, File-Import/-Export, Drucken, Bookmarks, Hotspots-Markierung, Vorwärts/Rückwärts, Persönliche Einstellungen, Tooltipps, Systemstatus-Anzeige, Hilfe, Impressum, Home, Exit Raumeinheit selektieren (Gemeinde usw.), Zoomen (schrittweise/kontinuierlich), Karte verschieben (Pan/Scroll), Referenzkarte, Karte rotieren, Sichtlinie und Sichtwinkel, Pins platzieren, geografischer Index, räumliche Suche, Tracking (Spuranzeige) Zeiteinheit selektieren (Zeitpunkt/Periode), Animation (zeitliche Abfolge) Themen selektieren/wechseln, Themenindex, Themensuche, Themenfavoriten festlegen Ein-/Ausschalten von Kartenebenen und Legenden-Kategorien, Wechsel der Symbolisierung, Wechsel der Projektion Beschriftung von Kartenelementen, Hinzufügen von benutzerdefinierten Kartenelementen Modifikation der Datenklassierung, Modifikation der Erscheinung (Helligkeit, Sonnenstandort usw.), Kartenvergleich, Datenselektion Ortsbestimmung (Koordinaten, Höhe), Messen/Abfrage von Distanzen und Flächen, Profil-Berechnung Daten/Attribut-Abfrage, Zugang zu Statistikdaten Verschneidung, Puffer, Aggregierung, Überlappung, Terrain-Analyse (Exposition, Hangneigung usw.) Geführte Touren, Vorschau, Erläuterungstexte, Bilder, Töne, Videos Wissensspiele (Quizzes), Games

12

5

L. Hurni und R. Sieber

kartografischen Visualisierung

In den Anfängen der AIS erfolgte die kartografische Visualisierung hauptsächlich mittels eingescannten, sog. „View-only“-Karten. Dies sind Rasterbilder, welche teils mit einer weiteren, unsichtbar darunter liegenden Informationsschicht für Abfragen kombiniert wurden. Diese Möglichkeit wird auch heute noch angewendet, z. B. beim Einsatz von Luft- und Satellitenbildern sowie – aufgrund der Performanz – bei 3D-Atlanten. Interaktive Karten, wie sie heute in AIS verwendet werden, setzen sich dem gegenüber meist aus mehreren Kartenebenen zusammen. Die Karten werden „onthe-fly“ aus den Kartengeometrien, den Attributen und einer Kartenbeschreibung erzeugt. Mittels des Kartenbeschreibungs-Scripts lassen sich der Kartentyp, die eingesetzten Daten, die räumliche und zeitliche Dimension, die visuellen Variablen, sowie das Verhalten der einzelnen Ebenen steuern. Grundsätzlich ist es damit nicht nur den Atlas-Autoren, sondern auch den Benutzenden möglich, diese Kartenparameter global oder einzelner Kartenelemente zu verändern. In AIS werden solche Möglichkeiten i. A. eingeschränkt angeboten, wie z. B. in Form von Klassierungstools. Nachfolgend werden in einer Kartengalerie ausgewählte Kartentypen und Visualisierungstechniken vorgestellt, welche in AIS als 2D-Karte (Abb. 6, 7 und 8) und/oder 3D-Darstellung eingesetzt werden (Abb. 9, 10, 11, 12 und 13). Während sich die Technik bei 2D-Karten auf die Überlagerung von Ebenen beschränkt, finden bei 3D-Darstellungen diverse Techniken wie Billboards für Punktsymbole und Beschriftung, Trajektorien für Linien, Overlay/Drape für Linien oder Flächen, sowie Extrusion und Terrain-Offset für Punkte, Linien und Flächen Anwendung. Der 3D-Modus kann zudem als freie 3D-Ansicht, Panorama oder Blockbild vermittelt werden.

Abb. 6 Punktbezogene 2D-Visualisierungen: Piktogramme, Diagramme, Pseudo-3D-Kugeln (Atlas der Schweiz 3, 2010)

Abb. 7 Linienbezogene 2D-Visualisierungen: Netze, Fokuskarten (Atlas der Schweiz 3, 2010)

1 Atlas-Informationssysteme

13

Abb. 8 Flächenbezogene 2D-Visualisierungen: Choroplethen, farbinterpolierte Grids, GridZellen (Atlas der Schweiz 3, 2010)

Abb. 9 Panorama-Visualisierung mit Nebeleffekt und Labeling (Atlas der Schweiz 3, 2010)

Abb. 10 Punktbezogene 3D-Visualisierungen: Billboards (links), Translation von Punkten (rechts) (Atlas der Schweiz – online, ab 2016)

Abb. 11 Punktbezogene 3D-Visualisierungen: Geschichtete Diagramme (Atlas der Schweiz – online, ab 2016)

14

L. Hurni und R. Sieber

Abb. 12 Linienbezogene 3D-Visualisierungen: Terrain-Offset, Trajektorien (Atlas der Schweiz – online, ab 2016)

Abb. 13 Flächenbezogene 3D-Visualisierungen: Drape, Extrusion (Atlas der Schweiz – online, ab 2016)

6

Grafische Benutzeroberfläche

Bei AIS kommt der Grafischen Benutzeroberfläche (GUI) eine wesentliche Bedeutung zu. Die Gestaltung eines benutzer-orientierten GUI ist indessen – aufgrund der inhärenten Komplexität von Atlanten und des oft heterogenen Publikums – eine große Herausforderung. Einerseits muss das GUI ästhetisch ansprechend gestaltet sein, andererseits soll die Funktionalität möglichst einfach zugänglich sein. Dies wird mit den Methoden des User Centered Design (UCD) und dessen Umsetzung nach den Ansätzen des Interaction Design (IxD) erreicht. Die Designkette folgt bei IxD einer klaren Struktur von der Investigationsphase über das Grobdesign (Abb. 14). mit Wireframe-Skizzen, Moodboards (Bestimmung des „look & feel“ durch Farben, Aktionen usw.) hin zum finalen Detaildesign. UCD beschäftigt sich dabei mit dem Interaktionsprozess zwischen den Benutzenden und dem GUI [21] IxD konzentriert sich auf Planung und Design der generellen Funktionalität des GUI, auf die Festlegung der Eigenschaften und des Verhaltens der GUI-Elemente, sowie auf das grafische Design eines Atlas-GUI [8].

1 Atlas-Informationssysteme

15

Abb. 14 Wireframe-Skizze (links) und Moodboard (rechts) des Atlas der Schweiz – interaktiv (2016)

Abb. 15 Studie über Desktop-Atlas GUIs: Die farbig markierten Dichtekarten zeigen konzentrierte (links) oder verstreute Klick-Muster (rechts) für dieselbe Aufgabe, abhängig vom GUI Layout [15]

Wie in Kap. 2 festgestellt wurde, basiert das allgemeine Verständnis sowie das Konzept von AIS darauf, dass ein Atlas verschiedenartige Themen unter einem gemeinsamen GUI vereint. Dies erzeugt Konflikte in Bezug auf die Bedienbarkeit, da unterschiedlichste Kartentypen und Karteninhalte mit einem sub-optimalen Set von Tools behandelt werden müssen. Gleichzeitig hat dieses integrierende Konzept aber auch Vorteile, z. B. beim Vergleichen und Kombinieren von Karten. Die Konzeption und Erstellung eines Atlas-GUI erfolgt meist nach dem sog. WIMP-Paradigma (Windows, Icons, Menus, Pointer), was zu einem relativ stark strukturierten Layout führt. Dieses Layout sollte eine einfache, klar gegliederte Struktur aufweisen (Organisations-Prinzip), die Handlungs-Effektivität mit einem minimalen Tool-Set maximieren (Ökonomie-Prinzip) und eine semantisch bedeutsame, visuelle Hierarchie enthalten (Kommunikations-Prinzip). Neuere AIS folgen dem sog. Responsive Design, wodurch sich das Layout an die Bildschirmgröße anpasst. Mittels Eye-Tracking, User Activity-Tracking [15] u. ä. Methoden kann ermittelt werden, welches GUI-Layout sich für ein AIS eignet (Abb. 15).

16

L. Hurni und R. Sieber

7

Anwendungsbeispiele

7.1

Kartenbasierte Plattformen

In Ebenen angeordnete oder mit mehr oder weniger Interaktivität angereicherte Karteninhalte werden heute auf den verschiedensten, meist webbasierten oder in Apps eingebundenen Plattformen angeboten. Meist steht dabei die Karte oder ihr topografischer Inhalt nicht im Vordergrund, sondern die Karte ist Mittel zur Visualisierung spezifischer raumbezogener Information wie Verkaufsstellen, Verbreitungsgebieten usw. Als entsprechende Standard-Applikationen gelten für 2D-Karten Google Maps und für 3D-Karten Google Earth, welche detaillierte Grundkarten und zusätzliche Services wie Routenplanung und Streetview anbieten. Technisch, funktionell und inhaltlich ist deshalb ein Konvergieren der Atlastypen zu beobachten. Es stellt sich die Frage, ob aufgrund solcher universell einsetzbarer Basisfunktionalität überhaupt noch zwischen solch unterschiedlichen Typen differenziert werden kann und soll. Da dies bei gedruckten Atlanten trotz des gleichen Mediums nach wie vor getan wird, werden in den nächsten Abschnitten einige thematische Anwendungsbeispiele vorgestellt.

7.2

Welt- und Schulatlanten

Interaktive Weltatlanten verwenden hauptsächlich „physische“ Karten mit Suchund Index-Funktionen. Frühere spezifische interaktive Weltatlanten wie Encarta sind heute praktisch vollständig zugunsten von Online-Applikationen wie Google Maps verschwunden. Benutzergenerierte Information lässt sich einbinden; ein Qualitätskontrolle erfolgt dabei nicht. Schulatlanten gelten als Spezialtyp der Weltatlanten und enthalten speziell ausgewählte thematische Karten für den didaktischen Einsatz. Je nach Thematik sind die Karten global, regional oder lokal – in unterschiedlichen Maßstabsreihen – vorhanden. Ein Beispiel für einen digitalen Schulatlas ist der Schweizer Weltatlas – interaktiv, der als Begleitmedium zur Print-Ausgabe konzipiert ist.

7.3

National- und Regionalatlanten, Stadtatlanten

Nationale und regionale Atlanten zeigen ein Land oder eine Region anhand einer großen Vielfalt an thematischen Karten. Auch in dieser Gruppe finden sich Projekte, die neben gedruckten Atlasbänden auch über eine digitale Version verfügen, so etwa der Nationalatlas von Schweden, der GIS-basierte Nationalatlas von Spanien oder der Nationalatlas von Deutschland [6]. Funktional wird die gesamte Palette der Interaktions- und Visualisierungsmöglichkeiten (s. Kap. 4) genutzt. Als ausschließlich digitaler Atlas ist der Atlas der Schweiz – online konzipiert, in dem mittels eines virtuellen Globus die topografischen und thematischen Daten dreidimensional visualisiert und exploriert werden können (Abb. 16, rechts).

1 Atlas-Informationssysteme

17

Abb. 16 GenderAtlas von Österreich und Atlas der Schweiz – online (2016 ff.)

7.4

Topografische Atlanten, Geoportale und Webservices

Viele staatliche Kartenbehörden publizieren ihre topografischen Kartenserien auf Webportalen. Die Grundkarten sind meist im Rasterformat verfügbar; immer öfter werden aber interaktive Funktionen wie Themenkombination, Abfrage, Messen oder Export angeboten. Beispiele sind die USGS TOPO! Kartenserie auf diversen Webportalen, der 2D/3D-Kartendienst von swisstopo sowie der deutschen Bundesländer (GeoPortal.Bund, BayernAtlas, HessenViewer, SachsenAtlas usw.). Immer wichtiger werden auch Kartenplattformen, deren Inhalte zu großen Teilen durch Nutzer erzeugt werden. Prominentestes Beispiel ist OpenStreetMap, welche eine Basisfunktionalität wie Google Maps oder ESRI ArcGIS Online anbietet und bei welchem z. B. auch das grafische Erscheinungsbild durch „Styles“ individuell angepasst werden kann.

7.5

Thematische und Statistische Atlanten

Zahlreiche Atlanten behandeln spezifische Themenkreise wie Geologie, Hydrologie, Klima, Planung, oder Geschichte, in 2D- und teils in 3D-Ansicht. Statistische Atlanten ermöglichen die Visualisierung statistischer Daten in Form von Choroplethen- oder Diagrammkarten, basierend auf den administrativen Grenzen (z. B. der StatAtlas Schweiz, GenderAtlas Österreich, Abb. 16, links).

8

Ausblick auf die künftige Entwicklung von AIS

Interaktive AIS haben implizit zum Ziel, (geografische) Informationen auf spannende und intuitiv erfassbare Art einem breiten Publikum zu vermitteln. Ein Haupttrend der nächsten Jahre wird somit das Konzept des Storytellings sein (s. Kap. 3), um die Atlasnutzer mittels Storyboards durch das visualisierte Thema zu führen oder sie auf interessante Fakten und Prozesse in der Karte hinzuweisen [20].

18

L. Hurni und R. Sieber

Abb. 17 Storytelling im Geschichtsatlas American Panorama (2018) und 3D-Kartographie auf mobilen Geräten im Kinderatlas Barefoot World Atlas (2013)

Ein zweiter konzeptioneller Trend lässt sich in Richtung 3D-Kartografie ausmachen. Auch hier steht das zu vermittelnde Erlebnis im Vordergrund, welches durch die freie Navigation und das Explorieren in der Karte stark gefördert wird (Abb. 17). Dazu kommt, dass nebst dem immersiven Erlebnis auch der räumliche Eindruck der Kartenszene mithelfen kann, den Nutzenden die Verbindung zwischen Karte und Realität zu erleichtern. Animationen werden in Zukunft ein stärkeres Gewicht erhalten; bis heute werden meist vorberechnete, temporale Animationen ganzer Karten eingesetzt. Zukünftig sollen Animationen in Echtzeit gerechnet und nach Zeit, Raum und nach Attribut (z. B. Magnitude eines Erdbebens) variiert werden können. Animationen können zudem auch auf Objektgruppen oder Einzelobjekte in Karten angewendet werden. Augmented Reality wird – zusammen mit dem verstärkten Einsatz von mobilen Geräten – eine Verknüpfung der Print und Digitalwelt mit der Realität ermöglichen. „Mobile Atlanten“ können dadurch im Tourismus, in der Planung oder auch didaktisch in Schulen eingesetzt werden. Spezifische kartografische Funktionen werden künftig weiter entwickelt, so etwa Generalisierungs- oder Clustering-Funktionen, regelbasierte Visualisierungsfunktionen oder einfache GIS-Funktionen (freie Selektion von Kartenobjekten; Bestimmung von Einzugsgebieten) und einfache Simulationen wie z. B. Fließrichtungen. Die Integration und Visualisierung von Echtzeit-Daten und Web-Services kann dazu dienen, Atlanten wieder näher an den Alltagsgebrauch zu führen. Dabei sollte die Integration von Fremddaten (benutzergenerierte oder Open Source Daten) vereinfacht werden. Dies führt dazu, dass Atlanten in Zukunft in einem kollaborativen, qualitätsgesicherten „Shared editing“-Prozess entstehen könnten. Die Graphische Benutzerschnittstelle (GUI) wird sich von fest codierten Strukturen zu selbst-adaptierenden Widgets entwickeln. Dies erlaubt eine freie Anordnung der GUI-Elemente sowie eine persönliche Auswahl der Tools. Die zukünftigen Atlas-Informationssysteme AIS werden also viel stärker benutzerkontrolliert sein. Basis sind lokale und verteilte, konsolidierte und selbst editierte, sowie bestehende und in Echtzeit eintreffende Datensätze. Sie können in all ihren thematischen, räumlichen und zeitlichen Dimensionen interaktiv erforscht

1 Atlas-Informationssysteme

19

und visualisiert werden. Dazu stehen eine grosse Anzahl Funktionen und Bedienelemente zur Verfügung, die eigenständig auf die Daten angewendet, aber auch flexibel zu neuen benutzerdefinierten, skalierbaren Atlas-Informationsplattformen kombiniert werden können.

Literatur 1. Armeno, C.: Peregrinaggio di tre giovani figliuoli del re di Serendippo, dalla persiana nell’italiana lingua trapportato. Michele Tramezzino, Venedig (1557) 2. Bär, H.-R., Sieber, R.: Towards High Standard Interactive Atlases: The GIS and Multimedia Cartography Approach. Paper presented at the 19th international cartographic conference, Ottawa (1999) 3. Borchert, A.: Multimedia atlas concepts. In: Cartwright, W., Peterson, M., Gartner, G. (Hrsg.) Multimedia Cartography, S. 75–86. Springer, Berlin (1999) 4. Cron, J.: Graphische Benutzeroberflächen interaktiver Atlanten – Konzept zur Strukturierung und praktischen Umsetzung der Funktionalität; mit Kriterienkatalog. Diploma thesis, Hochschule für Technik und Wirtschaft, Dresden, and ETH Zurich, Dresden und Zürich (2006) 5. Da Silva Ramos, C., Cartwright, W.: Atlases from paper to digital medium. In: Stefanakis, E., Peterson, M., Armenakis, C., Delis, V. (Hrsg.) Geographic Hypermedia Concepts and Systems. Lecture Notes in Geoinformation and Cartography, S. 486. Springer, Berlin (2006) 6. Hanewinkel, C., Tzschaschel, S.: Germany in Maps – A Multi-Purpose Toolbox. Paper presented at the 22th international cartographic conference, A Coruña (2005) 7. Hannan, P.J.: Serendipity, Luck, and Wisdom in Research. iUniverse, New York (2006) 8. Herczeg, M.: Interaktionsdesign. Oldenbourg Wissenschaftsverlag, München (2006) 9. Hurni, L.: Interaktive Karteninformationssysteme – quo vaditis? Kartograph. Nachr. 56(3), 136–142 (2006) 10. Iosifescu Enescu, I.: Cartographic Web Services. Dissertation, Eidgenössische Technische Hochschule ETH Zürich, Nr 19824, Zürich (2011) 11. MacEachren, A.M., & Kraak, M.J.: Exploratory cartographic visualization advancing the agenda. Comput. Geosci. 23(4), 335–343 (1997) 12. Norman, D.A.: The Design of Everyday Things. Basic Books, New York (1988) 13. Ormeling, F.: Atlas Information Systems. Paper presented at the 17th international cartographic conference, Barcelona (1995) 14. Ormeling, F.: Functionality of Electronic School Atlases. Paper presented at the seminar on electronic atlases II, Prague/The Hague (1996) 15. Schnürer, R., Sieber, R., Cöltekin, A.: The next generation of atlas user interfaces – a user study with „Digital Natives“. In: Brus, J. et al. (Hrsg.) Modern Trends in Cartography, S. 23–36. Springer, Cham (2015) 16. Sieber, R., Geisthövel, R., Hurni, L.: Atlas of Switzerland 3: A Decade of Exploring Interactive Atlas Cartography. Paper presented at the 24th international conference of the ICA, Santiago de Chile (2009) 17. Siekierska, E., Taylor, F.: Electronic mapping and electronic atlases: New cartographic products for the information era – the electronic atlas of Canada. CISM J. ACSGC 45(1), 11–21 (1991) 18. Siekierska, E., Williams, D.: National Atlas of Canada on the Internet and Schoolnet. Paper presented at the seminar on electronic atlases II, Prague/The Hague (1996) 19. Roth, R.E.: An empirically-derived taxonomy of interaction primitives for interactive cartography and geovisualization. IEEE Trans. Vis. Comput. Graph. 19(12), 2356–2365 (2013) 20. Thöny, M., Schnürer, R., Sieber, R., Hurni, L., Pajarola, R.: Storytelling in interactive 3D geographic visualization systems. ISPRS Int. J. Geo-Info. 7(123), 1–14 (2018)

20

L. Hurni und R. Sieber

21. Tsou, M.-H., Curran, J.M.: User-centered design approaches for web mapping applications: A case study with USGS hydrological data in the United States. In: Peterson, M.P. (Hrsg.) International Perspectives on Maps and the Internet, S. 301–321. Springer, Berlin/Heidelberg (2008) 22. Vaughan, T.: Multimedia: Making It Work. Osborne/McGraw-Hill, Berkeley (1993)

Web-Links Zugegriffen am 21.06.2018 Atlas of Canada: http://atlas.gc.ca/toporama/en/index.html Atlas of Arkansas: keine Webseite Nationalatlas Schweden: http://www.sna.se/about/index.html Nationalatlas Spanien: http://www.ign.es/web/ign/portal/ane-area-ane Nationalatlas Deutschland: http://www.nationalatlas.de Atlas der Schweiz (Nationalatlas): http://www.altasderschweiz.ch Schweizer Weltatlas: https://schweizerweltatlas.ch/ Tirol Atlas: http://tirolatlas.uibk.ac.at Statistischer Atlas der Schweiz: https://www.bfs.admin.ch/bfs/de/home/statistiken/regional statistik/atlanten/statistischer-atlas-schweiz.html GenderAtlas Österreich: http://www.genderatlas.at/ 3D Atlas: https://archive.org/details/3D_Atlas_1994_Electronic_Arts_US OECD-Statistikatlas Regional eXplorer: http://www.oecd.org/cfe/regional-policy/oecdexplo rer.htm Google Maps: https://www.google.ch/maps/ Google Earth: https://www.google.ch/earth/ Microsoft Encarta: http://microsoft_encarta.de.downloadastro.com GeoPortal.Bund: https://www.geoportal.de/DE/Geoportal/geoportal.html?lang=de BayernAtlas: http://www.geoportal.bayern.de HessenViewer: http://www.geoportal.hessen.de/portal/karten.html SachsenAtlas: http://www.atlas.sachsen.d OpenStreetMap: https://www.openstreetmap.org/ ESRI ArcGIS Online: https://www.arcgis.com/home/index.html American Panorama: https://dsl.richmond.edu/panorama/ Barefoot World Atlas: http://www.barefootworldatlas.com

2

GeoVisual Analytics Doris Dransch, Mike Sips und Andrea Unger

Inhalt 1 Visual Analytics – GeoVisual Analytics: Grundlagen und Entwicklung . . . . . . . . . . . . . . 1.1 Visual Analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 GeoVisual Analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Ein nutzerorientiertes Konzept für GeoVisual Analytics . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Grundlagen aus der Handlungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Vorgehensmodell zur Entwicklung nutzerorientierter GeoVisual Analytics Werkzeuge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Beispielhafte Anwendung des Vorgehensmodells . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 GeoVisual Analytics Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Methoden der interaktiven Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Methoden der automatisierten Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Anwendung von GeoVisual Analytics Konzepten und Werkzeugen . . . . . . . . . . . . . . . . . 5 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22 23 25 26 26 27 31 35 35 36 37 40 41

Zusammenfassung

Visual Analytics hat das Ziel, leistungsfähige Werkzeuge für die Analyse und Interpretation von Daten bereitzustellen. Die Werkzeuge sollen die Nutzer dabei unterstützen, Daten besser zu verstehen und neue Erkenntnisse aus den Daten zu

D. Dransch () Sektion Geoinformatik, Deutsches GeoForschungsZentrum – GFZ, Potsdam, Deutschland E-Mail: [email protected] M. Sips · A. Unger Deutsches GeoForschungsZentrum GFZ, Potsdam, Deutschland E-Mail: [email protected]; [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_60

21

22

D. Dransch et al.

gewinnen. Visual Analytics Werkzeuge verwenden Methoden der interaktiven Visualisierung und der automatisierten Datenanalyse. Sie nutzen damit die Fähigkeit des Menschen, intuitiv und schnell visuelle Informationen zu erfassen, sowie das Potential des Computers, komplexe Datenanalysen durchzuführen und interaktive Visualisierung zu ermöglichen. Das Forschungsfeld GeoVisual Analytics untersucht, wie die allgemeinen Konzepte von Visual Analytics für die Analyse und Interpretation raumzeitlicher Daten genutzt werden können.

Schlüsselwörter

Visual Analytics · GeoVisual Analytics · Interaktive Visualisierung · Visual thinking · Explorative Datenanalyse · Automatisierte Datenanalyse · Nutzerorientierte Entwicklung von Visual Analytics Werkzeugen

1

Visual Analytics – GeoVisual Analytics: Grundlagen und Entwicklung

Visual Analytics ist ein junges Forschungs-und Anwendungsfeld im Schnittbereich von Datenanalyse, interaktiver Visualisierung und Anwendungsdomäne. Es ist ein Ansatz, um Informationen aus stetig wachsenden und komplexer werdenden Datenmengen zu gewinnen. Grundidee von Visual Analytics ist, die automatisierte Datenanalyse durch interaktive Visualisierung zu ergänzen, um die Fähigkeit des Menschen zur Erkennung und Interpretation von Mustern und Zusammenhängen in die Analyse einzubeziehen. Dieses Konzept des „human in the loop“ ermöglicht es, das Expertenwissen stärker in die Analyse zu integrieren und die Interpretation von Ergebnissen zu verbessern. Visual Analytics Verfahren werden beispielsweise eingesetzt, um Muster in Daten zu erkennen und zu interpretieren, um Zusammenhänge in komplexen, oft heterogenen Daten besser zu verstehen und um die Datenverteilung in multidimensionalen Datenräumen besser zu erfassen. Visual Analytics Verfahren eignen sich vor allem für die Analyse von Datensätzen, deren Informationsgehalt noch nicht in Gänze bekannt ist. Man möchte wesentliche Strukturen in diesen Daten entdecken, die anschließend mit Hilfe automatisierter Verfahren überprüft werden können. Das Konzept von Visual Analytics gründet auf generelle Ansätze aus den Bereichen Datenanalyse, kognitive Informationsverarbeitung und interaktive Systeme. GeoVisual Analytics überträgt diese generellen Ansätze auf die spezifischen Anforderungen der Geodomäne. Dies sind zum einen die Raum-Zeit-Dimensionen von Geodaten. Zum anderen sind es die fachspezifischen Fragestellungen und die damit verbundenen Ziele und etablierten Verfahren der Datenanalyse. Bei der Entwicklung von GeoVisual Analytics Technologien sind diese Anforderungen zu berücksichtigen.

2 GeoVisual Analytics

1.1

23

Visual Analytics

Visual Analytics umfasst Konzepte aus verschiedenen Bereichen. Dazu gehört die explorative Datenanalyse (EDA) aus der Statistik. Aus dem Bereich der Kognition stammen visuelles Denken, kognitive Werkzeuge und die Erzeugung mentaler Modelle. Weitere Konzepte sind der Gestaltung interaktiver Systeme entnommen. Sie fließen als gedankliche Bausteine in das Konzept von Visual Analytics ein. Der Statistiker John W. Tuckey [1] propagierte explorative Datenanalyse (EDA) als essentiellen Schritt im Datenanalyseprozess. EDA ergänzt die deskriptive statistische Datenanalyse und unterstützt den Analysten dabei, ein umfassendes Verständnis der Daten zu erlangen: „Exploratory data analysis can never be the whole story, but nothing else can serve as the foundation stone – as the first step“ [1, S. 3]. Die deskriptive Statistik beschreibt Daten durch Kennwerte, die explorative Statistik dagegen untersucht Daten nach Mustern und Zusammenhängen. Explorative Datenanalyse unterstützt zum Beispiel die Interpretation von Ausreißern und Anomalien, die Extraktion wichtiger Variablen oder die Entwicklung geeigneter statistischer Modelle zur Beschreibung der Daten. Sie kann damit zu neuen Hypothesen und Fragestellungen führen. Ein wesentliches Erkenntnismittel der explorativen Datenanalyse ist die Visualisierung von Daten. Graphische Darstellungen ermöglichen es, schnell die Verteilung der Daten im Datenraum zu erfassen. Beispiele hierfür sind Streudiagramme oder Boxplots. Graphische Darstellungen aktivieren das visuelle Denken, das im menschlichen Gehirn neben dem sequentiellen, linguistischen Denken aktiv ist [2]. Visuelles Denken trägt zu Kreativität und Problemlösung bei, wie die Wissenschaftsgeschichte eindrucksvoll zeigt. Zum Beispiel konnten Chemiker um August Kekule im 19. Jhd. mit Hilfe von Visualisierung das Verständnis von Atomen und Molekülen und ihren Zusammenhang entwickeln. Die daraus entwickelte Strukturtheorie der organischen Chemie erweiterte den damals aktuellen Wissensstand erheblich [3]. Visualisierungen können als kognitive Werkzeuge für visuelles Denken betrachtet werden, die unser kognitives Potential erweitern [4, 5]. Norman [6] bezeichnet sie als „Things that make us smart“. Mit ihrer Hilfe können kognitive Aufgaben aus den begrenzten kognitiven Kapazitäten des Menschen ausgelagert und stellvertretend mit dem Werkzeug durchgeführt werden. Visualisierung trägt dazu bei, ein mentales Bild, ein mentales Modell, eines Sachverhalts zu entwickeln. „Visualization is insight, not pictures“ formulieren dazu Card et al. [7, S. 6]. Mentale Modelle sind Bausteine des Wissens, sie werden iterativ in der Auseinandersetzung mit einem Sachverhalt aufgebaut [8]. Je intensiver man sich mit dem Untersuchungsgegenstand auseinandersetzt, umso detaillierter und umfassender wird das mentale Modell. Ein Beispiel sind mentale Karten, die wir im Kopf von unserer Umgebung bilden [9]. Je genauer wir unsere Umgebung durch Alltagsaktivitäten oder durch das Studium von Karten erkunden, umso detaillierter und umfassender wird unser mentales Modell ausgeprägt. Neben der Visualisierung kommt also der Auseinandersetzung, der Interaktion mit dem Sachverhalt, eine

24

D. Dransch et al.

wesentliche Bedeutung bei der Entwicklung mentaler Modelle zu. Erforderlich ist dafür eine Visualisierung, mit der man interagieren kann. Sie ermöglicht es, Daten aus verschiedenen Perspektiven zu betrachten und damit ein gutes mentales Modell der Daten und der dadurch repräsentierten Phänomene zu entwickeln. Für die Gestaltung interaktiver Systeme formulierte Norman [10] ein generelles Konzept; Grundidee dabei ist, dass interaktive Systeme zur Erreichung eines bestimmten Ziels eingesetzt werden. Um dieses Ziel zu erreichen, entwickelt man einen kognitiven Plan. Er legt fest, welche Schritte für die Zielerreichung erforderlich sind. Dieser kognitive Handlungsplan muss mit dem physischen System ausgeführt werden können. Je besser das physische System auf den kognitiven Handlungsplan ausgerichtet ist, je besser also die Handlungen erfüllt werden können, umso schneller und sicherer kann das Ziel erreicht werden. Abb. 1 veranschaulicht Normans Konzept. Es zeigt den Bereich der kognitiven Ziele und Handlungspläne und den Bereich des physischen interaktiven Systems. Beide Bereiche sind durch eine Kluft getrennt (Abb. 1 links). Die Kluft kann nur dann gut überbrückt werden, wenn die kognitiven Ziele und Handlungspläne adäquat im physischen System abgebildet sind und ausgeführt werden können (Abb. 1 rechts). Dieser Gedanke wurde für die Gestaltung interaktiver Visualisierungssysteme aufgegriffen. Verschiedene Ansätze und Taxonomien beschreiben die kognitiven Ziele und Aufgaben der visuellen Datenexploration. Aufgaben sind z. B. Vergleich, Identifikation und Beschreibung von Mustern. Die Ansätze definieren kognitive Aufgaben der visuellen Datenexploration auf unterschiedlichen Ebenen der kognitiven Informationsverarbeitung [11–13]. Die skizzierten konzeptionellen Ideen werden im Konzept von Visual Analytics aufgegriffen und zusammengeführt. Thomas und Cook [14] definieren Visual Analytics als „the science of analytical reasoning facilitated by interactive visual interfaces“. Zentral in diesem Konzept ist der Prozess des „analytical reasoning“; er ist der „analytische Diskurs“ des Analysten und seinem Wissen mit den Daten. Im analytischen Diskurs wird ein umfassendes Verständnis der Daten entwickelt, und es können Schlussfolgerungen bezüglich der gestellten Fragen gezogen werden. Da der Diskurs iterativ und evolutionär ist, sind Repräsentationsformen für die Daten erforderlich, die die Interaktion mit den Daten ermöglichen und die gedanklichen Prozesse befördern. Dafür sind interaktive visuelle Interfaces zu den Daten besonders geeignet. Forschung im Bereich Visual Analytics hat das Ziel, Konzepte und Werkzeuge zu entwickeln, die den analytischen Diskurs mit großen komplexen Daten unterstützen. Keim [15] ergänzt diese Sichtweise durch einen weiteren Aspekt. Die Analyse großer, komplexer Datenmengen erfordert automatisierte Analyseverfahren aus dem

Abb. 1 Normans Konzept des nutzerorientierten physischen Systems

2 GeoVisual Analytics

25

Bereich Knowledge Discovery und Data Mining. Daher sieht er die Kombination aus automatisierter Datenanalyse und interaktiver Visualisierung als Kernstück von Visual Analytics. Automatisierte Datenanalyse nutzt die enormen Kapazitäten des Computers, um Muster in den Daten zu selektieren; interaktive Visualisierung unterstützt die menschlichen Fähigkeiten des Erkennens, In-Beziehung-Setzens, Bewertens und logischen Schließens. Die Fähigkeit des Menschen, sein Expertenwissen, seine kognitive Kreativität und Flexibilität kann mit der enormen Speicher- und Rechenkapazität des Computers gewinnbringend kombiniert und in den analytischen Diskurs eingebracht werden.

1.2

GeoVisual Analytics

Das Konzept der interaktiven explorativen Datenanalyse wurde in den 1990er-Jahren in der Kartographie aufgegriffen und im Rahmen der interaktiven Geovisualisierung weiterentwickelt. Die Karte ist nicht mehr nur Mittel für die visuelle Kommunikation, sondern wird auch als Mittel des visuellen Denkens betrachtet. Die traditionelle Kommunikationsfunktion der Karte wird ergänzt durch die Explorations- und Verifikationsfunktion kartographischer Darstellungen [16]. Die Interaktion des Nutzers mit der kartographischen Darstellung wird zu einem wichtigen Instrument für das visuelle Denken [17]. Diese Ansätze werden im Konzept des „map use cube“ aufgegriffen [18]. Es charakterisiert verschiedene Kartennutzungsfunktionen und setzt sie zueinander in Beziehung. Basis dafür sind die Interaktion des Nutzers mit der Karte, die Kenntnis über die dargestellte Information und der Nutzungskontext. Forschungsfragen der interaktiven Geovisualisierung sind: die Entwicklung von Darstellungsmethoden für raumzeitliche Daten, die Integration von visuellen und automatisierten Methoden der Informationsgewinnung, das Interface-Design für Geovisualisierungsumgebungen sowie die Analyse der Nutzerorientierung und der Brauchbarkeit interaktiver Geovisualisierungssysteme [19]. Aus diesen Entwicklungen heraus hat sich das Feld GeoVisual Analytics gebildet. In den letzten Jahren wurde auf die Bedeutung von Raum und Zeit im Rahmen von Visual Analytics hingewiesen und die damit verbundenen Konzepte und Herausforderungen beschrieben [20] sowie Aufgaben für die Exploration raumzeitlicher Daten definiert [21]. Verschiedene Softwaresysteme unterstützen die Exploration raumzeitlicher Daten, z. B. GeoVista Studio1 oder CommonGIS.2 Kombiniert werden dabei Methoden der Kartographie mit Methoden der Informationsvisualisierung. Jüngere Entwicklungen adressieren die Verknüpfung von interaktiver Geovisualisierung mit Verfahren der automatisierten Datenanalyse [22–24]. Verschiedene Beispiele zeigen eindrucksvoll Anwendung und Potential von GeoVisual Analytics [25].

1 http://www.geovista.psu.edu/software/. 2 http://www.iais.fraunhofer.de/index.php?id=3091&L=0.

26

2

D. Dransch et al.

Ein nutzerorientiertes Konzept für GeoVisual Analytics

Ziel von GeoVisual Analytics ist, den Analyseprozess, den „analytischen Diskurs“ des Nutzers mit den raumzeitlichen Geodaten zu unterstützen. Dafür soll die automatisierte Datenanalyse durch die Fähigkeit des Menschen zur Erkennung und Interpretation von Mustern ergänzt werden, um das Expertenwissen, das nicht in den Analysealgorithmen enthalten ist, in die Datenanalyse einzubeziehen. Um das Konzept des „human in the loop“ zu ermöglichen, werden interaktive Visualisierungen mit statistischen oder automatisierten Analyseverfahren in GeoVisual Analytics Werkzeugen kombiniert. Die GeoVisual Analytics Werkzeuge müssen die Anforderungen, die aus den Daten resultieren, berücksichtigen, und auf die Anforderungen des Nutzers während des Analyseprozesses ausgerichtet sein [26]. Für die Entwicklung nutzer-orientierter interaktiver Visual Analytics Konzepte und Werkzeuge wird in diesem Beitrag der Ansatz von Norman zur Gestaltung interaktiver Systeme herangezogen (Abschn. 1.1). Er legt den Fokus auf den Nutzerkontext der Datenanalyse und das Analysewerkzeug; Basis des Konzepts ist die Handlungstheorie (Abschn. 2.1) [27]. Das Konzept findet im Bereich der MenschComputer-Interaktion, der Informationsvisualisierung und der Geovisualisierung Anwendung. Andere nutzerorientierte Konzepte basieren auf kognitiven Grundlagen, die vor allem auf den Prozess der menschlichen Informationsverarbeitung fokussieren [28].

2.1

Grundlagen aus der Handlungstheorie

Die Handlungstheorie untersucht Handlungen zur Erreichung von Zielen; die Handlungen können kognitiver oder physischer Natur sein. Sie betrachtet dabei verschiedene Komponenten: (1) Die Ziele, die durch Handlungen erreicht werden sollen; (2) den Handlungsplan zur Erreichung der Ziele; (3) die Handlungsausführung und die dafür verwendeten Werkzeuge; (4) die Bewertung des durch die Handlung erzeugten Ergebnisses; sowie (5) den Handlungskontext, der die Rahmenbedingungen für Ziel, Handlungsplan und -ausführung liefert, dies sind z. B. existierende Verfahren, Werkzeuge, Regeln [29,30]. Abb. 2 zeigt die verschiedenen Komponenten einer Handlung aus der Sicht der Handlungstheorie. Überträgt man diesen theoretischen Ansatz auf GeoVisual Analytics, ergibt sich daraus folgende Sichtweise: GeoVisual Analytics Werkzeuge werden für die Analyse raumzeitlicher Geodaten eingesetzt, um bestimmte Ziele des Nutzers im Rahmen der Analyse von Geodaten zu erreichen. Mittels der Visual Analytics Werkzeuge muss der Nutzer seinen Handlungsplan für die Analyse der Geodaten, seinen „analytischen Diskurs“, ausführen können, um das Analyseziel zu erreichen. Das Ziel und damit der Handlungsplan werden durch den Handlungskontext des jeweiligen Geo-Anwendungsfelds bestimmt. Aus dem Handlungskontext ergeben sich zudem die etablierten Werkzeuge, d. h. die Verfahren und Methoden, die bereits zur Geodatenanalyse für die Erreichung des jeweiligen Ziels genutzt

2 GeoVisual Analytics

27

Abb. 2 Komponenten einer Handlung aus Sicht der Handlungstheorie

werden und die durch das neue GeoVisual Analytics Werkzeug ergänzt werden sollen. Der Handlungsplan ist die Basis für die Entwicklung des GeoVisual Analytics Werkzeugs. Je nach Anforderung werden Methoden aus der interaktiven Visualisierung und automatisierten Datenanalyse eingesetzt [31]; die beiden Methodenfamilien kommen einzeln oder in Kombination zum Einsatz. Das Konzept des nutzerorientierten, Handlungstheorie-basierten Ansatzes für GeoVisual Analytics zeigt Abb. 3.

2.2

Vorgehensmodell zur Entwicklung nutzerorientierter GeoVisual Analytics Werkzeuge

GeoVisual Analytics Werkzeuge sollen den Nutzer bei seinen spezifischen Analyseaufgaben unterstützen. Um die Anforderungen des Nutzers zu identifizieren, sind entsprechend dem Handlungstheorie-basierten Konzept folgende Fragen zu beantworten: • Welches übergeordnete Ziel soll unterstützt werden? • Wie ist der Handlungsplan des Nutzers konzipiert? • Welche kontext-spezifischen Verfahren und Werkzeuge werden für die Ausführung der Handlungen genutzt? • Wie sollen GeoVisual Analytics Werkzeuge die etablierten Werkzeuge ergänzen, um den Handlungsplan besser ausführen zu können?

28

D. Dransch et al.

Abb. 3 Nutzerorientiertes Konzept für GeoVisual Analytics

Dafür ist zu klären: • Welche Schwachstellen/Unzulänglichkeiten gibt es bei der Ausführung des Handlungsplans mit herkömmlichen Werkzeugen? Welche Ziele und Handlungen des Handlungsplans sind von diesen Schwachstellen/Unzulänglichkeiten betroffen? • Wie können GeoVisual Analytics Werkzeuge dazu beitragen, die Schwachstellen zu beheben und es dem Nutzer ermöglichen, die Ziele und Handlungen besser durchzuführen? • Wie gestaltet sich der Handlungsplan, wenn das neue GeoVisual Analytics Werkzeug eingesetzt wird? Auf Basis dieser Analyse ist festzulegen, welche Methoden aus interaktiver Visualisierung und automatisierter Datenanalyse die identifizierten Ziele und Handlungen am besten unterstützen. Es ist zu untersuchen, wie existierende Methoden angepasst und erweitert werden müssen oder ob gänzlich neue Methoden zu entwickeln sind. Auch ist zu definieren, wie die Methoden zu kombinieren sind. Für die Entwicklung nutzerorientierter GeoVisual Analytics Werkzeuge lässt sich ein Vorgehensmodell formulieren [32]. Es umfasst vier Schritte: (1) die Aufgabenanalyse und Definition der Anforderungen; (2) die Entwicklung des Konzepts für das GeoVisual Analytics Werkzeug; (3) die Implementierung des Konzepts; und (4) die Bewertung des GeoVisual Analytics Werkzeugs bezüglich der defi-

2 GeoVisual Analytics

29

Abb. 4 Vorgehensmodell für die Entwicklung nutzerorientierter GeoVisual Anlytics Werkzeuge

nierten Anforderungen. Die vier Schritte werden nicht in einer einzigen Sequenz abgearbeitet sondern in iterativen Schleifen, in denen immer wieder Anforderungen und Werkzeug gegeneinander abgeglichen werden. Abb. 4 zeigt das Vorgehensmodell. Die Schritte werden im Folgenden näher erläutert. Aufgabenanalyse und Definition der Anforderungen Die Analyse der kognitiven Aufgaben ist ein Verfahren, um gedankliche Prozesse und Ziele zu erfassen. Sie wird eingesetzt, um die Analyse- und Entscheidungsstrategien von Experten zu erheben [33]. Die Analyse der kognitiven Aufgaben erzeugt eine detaillierte und präzise Vorgehensbeschreibung. Ergebnis sind hierarchische Ziel-HandlungsStrukturen, die oft in Form von Bäumen dargestellt werden. Methoden, die für die Analyse der kognitiven Aufgaben eingesetzt werden, stammen aus dem Bereich der Wissensextraktion; dazu gehören Dokumentenanalyse, Beobachtung sowie strukturierte und unstrukturierte Interviews [34]. Im Vorgehensmodell zur Entwicklung von GeoVisual Analytics Werkzeugen wird die Aufgabenanalyse eingesetzt, um Handlungskontext, übergeordnetes Ziel und Handlungsplan bei der Analyse von Geodaten zu erfassen. Ergebnis ist die Beschreibung des Ist-Zustands der Geodatenanalyse in einem bestimmten GeoAnwendungsfeld für ein definiertes Ziel. Anhand des Ist-Zustands werden die Schwachstellen ermittelt, die durch GeoVisual Analytics Werkzeuge behoben werden können. Als nächster Schritt wird ein Soll-Konzept für die Geodatenanalyse entwickelt. Es soll den Prozess der Datenanalyse derart verbessern, dass das Ziel besser erreicht werden kann. Aus dem Soll-Konzept werden die Anforderungen an das GeoVisual Analytics Werkzeug abgeleitet. Dazu werden den Zielen und Handlungen des Soll-Konzeptes entsprechende Aufgaben der explorativen Datenanalyse aus existierenden Taxonomien zugeordnet (siehe Abb. 5). Die definierten Aufgaben der Datenanalyse sind durch ein entsprechendes GeoVisual Analytics Konzept zu unterstützen. Entwicklung Visual Analytics Konzept Auf Basis der Ergebnisse der Aufgabenanalyse und Anforderungsdefinition wird das GeoVisual Analytics Konzept entwickelt. Es wird festgelegt, aus welchen konkreten Methoden der interaktiven Visualisierung und der automatisierten Datenanalyse das GeoVisual Analytics Werkzeug aufgebaut sein soll und wie sie zusammenwirken. Auch wird entschieden

30

D. Dransch et al.

Abb. 5 Aufgabenanalyse und Konzeptentwicklung. Der Handlungsplan für die Analyse von Geodaten ist als Baum dargestellt. Daraus werden Aufgaben der explorativen Datenanalyse abgeleitet (durch Hexagone dargestellt). Sie bilden die Basis für Entwicklung des GeoVisual Analytics Werkzeuges mit seinen verschiedenen Komponenten

wie die Methoden anzupassen bzw. zu erweitern sind, oder ob neue Methoden entwickelt werden müssen. Das Gesamtkonzept des GeoVisual Analytics Werkzeugs setzt sich aus mehreren Teilen zusammen. Sie umfassen (a) die graphische Darstellung der Daten, (b) die Interaktion des Nutzers mit dem GeoVisual Analytics Werkzeug, (c) die automatisierte Datenanalyse und (d) die Verknüpfung der Teilkonzepte. Es ist festzulegen, welche Visualisierungsmethoden die definierten Aufgaben der explorativen Datenanalyse adressieren und die Daten geeignet darstellen. Auch ist zu definieren, welche Sichten auf die Daten notwendig sind und wie diese Sichten verknüpft werden sollen. Das Interaktionskonzept beschreibt, welche Interaktionen mit den Daten und der graphischen Darstellung erforderlich sind, um den analytischen Diskurs zu ermöglichen. Die Verfahren der automatisierten Datenanalyse sind auf die spezifischen Anforderungen der raumzeitlichen Datenanalyse des jeweiligen Anwendungsfelds anzupassen. Schließlich ist festzulegen, wie die einzelnen Komponenten zusammenwirken. Implementierung Bei der Implementierung des GeoVisual Analytics Konzepts sollen schnell erste Ergebnisse erzeugt werden, um den Nutzer frühzeitig in die Entwicklung einzubeziehen und Rückmeldungen bezüglich der Eignung des Konzepts zu erhalten. Bewertung Bei der Bewertung wird die Eignung des GeoVisual Analytics Werkzeugs für die zu unterstützenden Analyseaufgaben untersucht. Zusammen mit den Fachexperten wird bewertet, wie das GeoVisual Analytics Werkzeug den Daten-

2 GeoVisual Analytics

31

analyseprozess verbessert und welchen Mehrwert es für die Erreichung des übergeordneten Analyseziels erbringt. Abb. 5 fasst den Weg von der Aufgabenanalyse zur Konzeptentwicklung zusammen.

2.3

Beispielhafte Anwendung des Vorgehensmodells

An folgendem Beispiel wird gezeigt, wie das Vorgehensmodell bei der Entwicklung von Geovisual Analytics Technologien umgesetzt wird. Das GeoVisual Analytics Werkzeug soll die Validierung eines Simulationsmodells unterstützen, das den geowissenschaftlichen Prozess glazialisostatischer Anpassungen (GIA) beschreibt [35]. Handlungskontext und Zielsetzung In ersten Gesprächen mit Fachwissenschaftlern wird ein Verständnis des Anwendungshintergrunds, der GIA-Modellierung, und des Analyseproblems, der Validierung, gewonnen. Es wird wie folgt beschrieben: Glazialisostatische Anpassungen (GIA) beschreiben die Reaktion der Erde auf Belastungen durch Eisschilde. Die Anpassungen führen zur Senkung und Hebung von Landmassen über lange Zeiträume. Die Datenanalyse wird im Rahmen der Validierung eines GIA-Simulationsmodells durchgeführt. Dabei ist zu prüfen, ob das Simulationsmodell den realen Prozess ausreichend genau abbildet. Die Validierung erfolgt durch den Vergleich der Beobachtungsdaten, die den realen Prozess beschreiben, mit den Ergebnissen der Simulation. Die in diesem Vergleich festgestellte Übereinstimmung zwischen Beobachtungs- und Simulationsdaten wird als Güte des Simulationsmodells bezeichnet. Die Güte kann durch ein statistisches Verfahren automatisch berechnet werden. Um aber ihre Aussagekraft zu bewerten, muss die Qualität der verfügbaren Beobachtungsdaten berücksichtigt werden. Die Einschätzung der Qualität und damit die Bewertung der Güte kann nicht automatisiert, sondern nur durch den Fachwissenschaftler erfolgen. Aufgabenanalyse Ausgehend von der allgemeinen Zielsetzung wird in weiteren Gesprächen ein detailliertes Bild des Handlungsplans gewonnen. Das Ergebnis ist die Identifikation von zwei wesentlichen Zielen, die im Verlauf des Analyseprozesses erreicht werden sollen: 1. Ziel: Bestimmung der Modellgüte. Welche Güte hat das Simulationsmodell abhängig von Raum, Zeit und Modellparameterisierung? Da der untersuchte GIA-Prozess eine raumzeitliche Ausdehnung hat, kann die Übereinstimmung zwischen Simulation und Beobachtung in Raum und Zeit variieren. Außerdem hängen die Simulationsergebnisse von den Werten der Modellparameter ab. Nicht alle Parameter lassen sich genau messen oder berechnen. Um die Abhängigkeit des Modellverhaltens von Parameterwerten zu bestimmen, wird die Simulation für verschiedene Wertekombinationen (Parameterisierungen) ausgeführt. Die Betrachtung der Modellgüte soll daher

32

D. Dransch et al.

neben raumzeitlichen Variationen auch Variationen berücksichtigen, die sich aus verschiedenen Parameterisierungen ergeben. 2. Ziel: Bewertung der Modellgüte.Wie ist die Modellgüte zu bewerten? Ist die ermittelte Aussage zuverlässig? Bei der Validierung des GIA-Modells wird ein Zeitraum betrachtet, der von der letzten Eiszeit vor etwa 10.000 Jahren bis heute reicht. Für diesen Zeitraum lassen sich keine Messdaten erheben. Stattdessen werden als Beobachtungsdaten sog. Indikatoren genutzt, die aus Ablagerungen, wie z. B. versteinerte Muscheln oder Pflanzen, abgeleitet werden und Hinweise auf die Höhe von Landmassen relativ zum Meeresspiegel geben. Diese Indikatoren haben jedoch zwei Nachteile: Erstens sind sie unregelmäßig in Raum und Zeit verteilt. Zweitens sind sie unsicher bezüglich Datierung und bezüglich der Vergleichsgröße, die zur Gütebestimmung genutzt wird. Diese Eigenschaften haben Einfluss auf die Aussagekraft der berechneten Güte des Simulationsmodells. Folgende Frage ist daher zu beantworten: Kann für eine bestimmte Region oder einen bestimmten Zeitraum eine zuverlässige Aussage über die Güte gemacht werden? Die Bewertung der Güte ist elementarer Bestandteil der Validierung des GIA-Modells. Geeignete Vorgehensweisen für die Validierung des Simulationsmodells müssen beide Ziele gleichermaßen unterstützen. Bisher nutzt der Fachwissenschaftler zwei verschiedene Vorgehensweisen: 1. Vergleich von Beobachtungs- und Simulationsdaten. Dazu werden graphische Darstellungen genutzt, die beobachtete und simulierte Werte gemeinsam in einem Diagramm in ihrem zeitlichen Verlauf zeigen. Die räumliche Verteilung der Datenpunkte zeigt eine Karte. Einschränkungen der Werkzeuge: Um die notwendige Bewertung der Übereinstimmung von Beobachtung und Simulation zu ermöglichen, wird der visuelle Vergleich nur für eine kleine, gut bekannte Datenauswahl durchgeführt. Der Vergleich verschiedener Parameterisierungen wird durch die vorhandenen Werkzeuge nicht unterstützt. Bisher werden die Simulationsergebnisse für jede Parameterisierung einzeln ausgewertet. 2. Bestimmung von Gütewerten durch automatisierten, punktweisen Vergleich von beobachteten und simulierten Werten. Mit bestehenden Visualisierungsmethoden werden die berechneten Gütewerte im zeitlichen und räumlichen Kontext gezeigt. Einschränkungen der Werkzeuge: Aus den einzelnen Gütewerten für Datenpunkte kann der Fachwissenschaftler kein Gesamtbild über die Modellgüte gewinnen. Zudem fehlt die Möglichkeit, die Gütewerte in ihrer Aussagekraft einzuschätzen. Der Vergleich von Parameterisierungen ist aufwändig. Anforderungsanalyse Anhand der bisherigen Analysewerkzeuge und ihrer Einschränkungen werden folgen Anforderungen für das Geo Visual Analystics Werkzeugzeug definiert:

2 GeoVisual Analytics

33

1. Zielstellung: Bestimmung der Modellgüte (a) Unterstützung beider Analysemethoden: visueller Vergleich von Beobachtungsund Simulationsdaten und Analyse automatisch berechneter Gütwerte (b) Einbeziehung der Gesamtheit der Beobachtungsdaten statt Beschränkung auf kleine Datenmengen (c) umfassender Vergleich der Modellgüte für verschiedene Parameterisierungen (d) Aufzeigen der Variation der Modellgüte in Abhängigkeit von Raum und Zeit 2. Zielstellung: Bewertung der Modellgüte (a) Exploration der Eigenschaften der Beobachtungsdaten, insbesondere der raumzeitlichen Verteilung und der Unsicherheiten bezüglich Datierung und Vergleichsgröße (b) Transparenz erzeugen bezüglich der Güteberechnung durch Aufzeigen des Zusammenhangs zwischen zugrunde liegenden Beobachtungs- und Simulationswerten und berechneter Güte Konzept des Geo Visual Analytics Werkzeugs Die Anforderungen an das Analysewerkzeug werden mit Hilfe von fünf miteinander gekoppelten Visual Analytics Komponenten umgesetzt. Davon stellen vier Komponenten interaktive Visualisierungsmethoden zur Verfügung, die fünfte Komponente übernimmt die Bereitstellung und Handhabung der benötigten Daten. Abb. 6 zeigt das Geo Visual Analytics Werkzeug. Komponente K1 (interaktive Visualisierung): Exploration der Modellgüte im raumzeitlichen Zusammenhang. Es werden sowohl visuelle Vergleiche von Beobachtungs- und Simulationsdaten unterstützt als auch die Analyse automatisch berechneter Gütwerte. Die Visualisierungskomponente K1 zeigt für einzelne oder Gruppen von Beobachtungen die automatisch berechnete Übereinstimmung mit den Simulationsdaten in ihrer räumlichen Verteilung. Die Farbskala reicht von gelb (schwache Übereinstimmung) zu rot (hohe Übereinstimmung). Komponente K2 (interaktive Visualisierung): Exploration der Modellgüte in Abhängigkeit von der Modellparameterisierung. Der Würfel spannt den Modellparameterraum auf. Jeder kleine Würfel repräsentiert eine konkrete Parameterbelegung des Simulationsmodells. Die Farbe eines Würfels zeigt analog der Farbskala in K1, wie hoch die Übereinstimmung von Beobachtungs- und Simulationsdaten für dieses Parametrisierung ist. Die Darstellungen rechts neben dem Würfel zeigen einzelne Schnitte durch den Modellparameterraum, die vom Wissenschaftler interaktiv selektiert werden können. Komponente K3 (interaktive Visualisierung): Exploration der Beobachtungsdaten. Dies umfasst die raumzeitliche Verteilung, die unsichere Datierung sowie die unsicheren Werte der Vergleichsgröße und weitere Daten, die den Fachwissenschaftler bei der Bewertung der Datenqualität unterstützen. Das Diagramm (a) zeigt, wie viele Beobachtungsdaten pro Typ und Alter für den ausgewählten Raumund Zeitauschnitt vorhanden sind. Die Farben grün, blau und violett differenzieren die verschiedenen Typen von Meeresspiegelindikatoren. Das Diagramm (b) zeigt das Alter und das Werteintervall der ausgewählten Daten. Durch die Größe des Wertebereichs wird der Grad an Unsicherheit der einzelnen Werte sichtbar.

Abb. 6 Werkzeug zur visuellen Datenexploration für die Validierung eines Simulationsmodells. K1 zeigt die Übereinstimmung der Beobachtungs- und Simulationsdaten in ihrer räumlichen Verteilung. K2 erlaubt die Exploration der Übereinstimmung von Beobachtungs- und Simulationsdaten bezogen auf verschiedene Werte der Modellparameter. K3 dient der Exploration der Beobachtungsdaten. Gezeigt werden für die einzelnen Beobachtungsdaten (a) die Häufigkeitsverteilung nach Gruppen und Alter (b) das Alter der Beobachtungsdaten und die Datenwerte sowie (c) Detailinformationen zu jeder Beobachtung aus der Datenbank. K4 unterstützt den visuellen Vergleich von Beobachtungs- und Simulationsdaten durch das optionale Einblenden von Simulationsdaten in K3(b). Die Farbe der Quadrate stellt den Zusammenhang zu den berechneten Gütewerten her

34 D. Dransch et al.

2 GeoVisual Analytics

35

Die Tabellen (c) enthalten Sichten auf die Datensätze der Datenbank; sie geben zusätzliche Informationen zu den Beobachtungsdaten. Komponente K4 (interaktive Visualisierung): Exploration des Zusammenhangs zwischen berechneten Gütewerten und den beobachteten und simulierten Ausgangswerten mittels Visualisierung aller drei Größen. Zusätzlich zu den Beobachtungsdaten in Komponente K3(b) können optional auch die Simulationsergebnisse als Quadrate angezeigt werden. Die Farbe eines Quadrats gibt die zugehörige berechnete Güte wieder. So können die beobachteten und simulierten Werte visuell verglichen und in Zusammenhang mit der berechneten Güte gebracht werden. Komponente K5: Datenbereitstellung und -handhabung. Die benötigte Daten werden aus einer Datenbank bereitgestellt und aggregierte Gütewerte werden für die aktuelle Datenauswahl berechnet. Die vier Visualisierungskomponenten sind über ein Interaktionskonzept eng miteinander verknüpft. Interaktive Datenselektionen des Nutzers in einer Komponente werden in die anderen Komponenten übernommen. Durch die Unterstützung der Selektion von Beobachtungsdaten einserseits und einzelnen Modellparameterisierungen anderereits kann der Nutzer im gesamten Datenraum schnell navigieren und die Daten auf verschiedenen Detailstufen analysieren. Wird beispielsweise in K2 interaktiv eine Parametriserung ausgewählt, wird für diese Auswahl die Übereinstimmung von Beobachtungs- und Simulationsdaten berechnet und das Ergebnis sofort in den Ansichten von K1, K3 und K4 dargestellt. Umgekehrt kann in K1 oder K3 interaktiv eine Teilmenge von Beobachtungsdaten ausgewählt werden, um für diese Teilmenge die Übereinstimmung bezüglich aller Parameterisierungen des Simulationsmodells zu berechnen und in K2 anzuzeigen. Wissenschaftler können mit diesem Verfahren sukzessive die Übereinstimmung der Beobachtungs- und Simulationsdaten explorieren und dabei ein umfassendes Verständnis dafür gewinnen, wie gut ihr Simulationsmodell mit den beobachteten Daten übereinstimmt und den realen Prozess wiedergibt. Bewertung des Konzepts hinsichtlich der Analyseaufgaben und Anforderungen Mit dem GeoVisualAnalytics Werkzeug is es möglich, die Modellgüte im gesamten Datenraum zu ermitteln und zu bewerten, wodurch eine umfassende und begründete Aussage zur Validität des GIA-Modells gemacht werden kann. Der Validierungsprozess wird wesentlich beschleunigt, da innerhalb eines Werkzeugs alle notwendigen Daten bereitgestellt und die wesentlichen Analyseaufgaben unterstützt werden.

3

GeoVisual Analytics Methoden

3.1

Methoden der interaktiven Visualisierung

Interaktive Visualisierung ist ein Methodenfeld, bei der die Visualisierung von Daten mit Interaktionstechniken gekoppelt wird. In der Literatur sind vielfältige Visualisierungsmethoden für verschiedene Datentypen beschrieben [21]. Es existieren

36

D. Dransch et al.

Methoden für die Visualisierung räumlicher, zeitlicher und multivariater Daten [36, 37]. • Räumliche Daten: Für Daten mit Geobezug stehen verschiedene Kartentypen zur Verfügung, wie z. B. Diagramm-, Choroplethen- oder Isolinienkarten [38–40]. Auch für andere Arten von räumlichen Daten, wie Strömungs- oder Volumendaten, existiert eine große Bandbreite von Visualisierungstechniken [41, 42]. • Zeitabhängige Daten: Die Visualisierungsmethoden folgen zwei verschiedenen grundlegenden Ideen [43]: Entweder werden mehrere Zeitpunkte gleichzeitig visualisiert, z. B. entlang einer Koordinatenachse, oder der dargestellte Zeitpunkt ändert sich über die Präsentationszeit, entweder durch den Nutzer gesteuert oder automatisch (Animationen). • Multivariate Daten: Bekannte Visualisierungstechniken sind Scatterplot Matrizen und parallele Koordinaten [37]. Die Möglichkeit zur Interaktion mit der visuellen Darstellung ist ein wesentlicher Aspekt der interaktiven Visualisierung. Durch Interaktion kann der Nutzer festlegen, welche Daten für ihn von Interesse sind und wie diese Daten dargestellt werden. Im Bereich der Mensch-Computer-Interaktion werden Techniken für den Dialog des Nutzers mit interaktiven Systemen entwickelt. Diese Techniken ermöglichen die Interaktion mit den Daten, den Visualisierungen und der Bildschirmpräsentation [37]. Eine in der interaktiven Visualisierung bedeutende Interaktionstechnik ist Brushing: Durch die direkte Auswahl eines Bildbereichs, z. B. über Finger- oder Mausgesten, kann der Nutzer intuitiv und schnell relevante Datenbereich auswählen. Durch Hervorhebung der gewählten Datenbereiche in verschiedenen Ansichten können vielfältige Dateneigenschaften miteinander in Verbindung gesetzt werden. Die Verbindung von graphischen Abbildungen mit Interaktionsmethoden erlaubt dem Anwender einen intuitiven, direkten Zugang zu den Daten.

3.2

Methoden der automatisierten Datenanalyse

Automatisierte Datenanalyse umfasst ein großes Feld an unterschiedlichen Methoden. Wichtige Methodenfelder sind folgende: • Klassifikation. Sie umfasst das Lernen einer Funktion, die Datenobjekte aufgrund ihrer Attributwerte einer Klasse zuordnet. Diese Funktion wird anhand von gegebenen Trainingsobjekten gelernt. Diese Trainingsobjekte, die für eine Klasse typische Attributwerte besitzen, sind explizit einer Klasse zugeordnet. • Clustering. Es beinhaltet die Partitionierung einer Datenmenge in Gruppen (Klassen). Im Gegensatz zur Klassifikation sind die Gruppen nicht a-priori bekannt. Das Ziel des Clustering ist es, Datenobjekte so aufzuteilen, dass die Datenobjekte einer Gruppe möglichst ähnlich sind. Dagegen sollen Datenobjekte verschiedener Gruppen möglichst unähnlich sein. Ausreißer in diesem Kontext sind Datenobjekte, die zu keiner Gruppe gehören.

2 GeoVisual Analytics

37

• Frequent Patterns Finding: Dies beinhaltet das Finden häufig auftretender Muster. Es existieren eine Vielzahl unterschiedlicher Typen von Frequent Patterns: Frequent Item Sets, Frequent Subsequences und Frequent Substructures. • Generalisierung. Dies ist die kompakte Beschreibung einer Menge von Datenobjekten. Dabei werden die Attributwerte der Datenobjekte verdichtet und auch häufig die Anzahl der Datenobjekte reduziert. Für jedes Methodenfeld gibt es eine Vielzahl von Algorithmen. Die Fachliteratur bietet eine Übersicht über diese Algorithmen sowie ihre Vorteile und Limitierungen [44]. Die wichtigsten Algorithmen in jedem Methodenfeld sind: • Klassifikation: Bekannte Algorithmen für die Klassifikation sind Entscheidungsbäume (Decision Trees) [45, 46], Bayes-Klassifikatoren [47], Support Vector Machines [48] und Nächste-Nachbarn-Klassifikatoren [49]. • Clustering. Clustering Algorithmen werden in partitionierende, hierarchische und dichtebasierende Verfahren eingeteilt. Ein bekannter Vertreter der partitionierenden Verfahren ist der k-means Algorithmus [50], das Single-Linkage Verfahren und Varianten [51] sind die bekanntesten hierarchischen Verfahren. DBSCAN [52] ist ein Beispiel für ein dichtebasierendes Verfahren. • Frequent Patterns Finding: Das bekannteste Verfahren zur Bestimmung von Frequent Patterns ist das Apriori-Verfahren [53]. • Generalisierung. Das bekannteste Konzept ist der Data Cube [54]. Die Idee des Data Cube ist die Verdichtung einer Datenmenge mittels Aggregation.

4

Anwendung von GeoVisual Analytics Konzepten und Werkzeugen

Erfahrungen zeigen, dass GeoVisual Analytics Konzepte und Werkzeuge vor allem dann Anwendung finden, wenn sie den etablierten Datenanalyseprozess des Nutzers unterstützen und verbessern. GeoVisual Analytics Werkzeuge sind daher für spezifische Anwendungen und ihre Herausforderungen bei der Datenanalyse und Dateninterpretation zu entwickeln. In dem aufgezeigten Anwendungsbeispiel der Validierung eines Simulationsmodells (Abschn. 2.3) sind diese Herausforderungen: (a) der raumzeitliche Vergleich verschiedener Datensätze, (b) die Einbeziehung der Gesamtheit der Beobachtungsdaten anstatt der Beschränkung auf kleine Datenmengen, und (c) die Exploration der Eigenschaften der Daten, insbesondere der raumzeitlichen Verteilung und der Unsicherheiten. Das entwickelte Visual Analytics Konzept und Werkzeug kann auf Anwendungen mit gleichartigen Herausforderungen übertragen werden, gegebenfalls ist es anzupassen. Sind Entwicklung und Anpassung abgeschlossen, kann der Analyst, z. B. ein Geowissenschaftler, das Visual Analytics Werkzeug für die Datenanalyse und Interpretation nutzen. Visual Analytics Konzepte und Werkzeuge existieren für verschiedene Anwendungsfelder mit ihren spezifischen Herausforderungen. Folgende Beispiele zeigen

38

D. Dransch et al.

eine Auswahl von Anwendungsfeldern und GeoVisual Analytics Konzepten und Werkzeugen. Analyse von geowissenschaftlichen Daten Vergleich von geowissenschaftlichen Daten In den Geowissenschaften werden häu-

fig Vergleiche von Daten durchgeführt. Diese Daten können aus verschiedenen Messungen oder Simulationsmodellen stammen. Ziel ist es, die raumzeitlichen Abweichungen in den Daten zu erkennen. Abb. 7 zeigt ein GeoVisual Analytics Werkzeug zum Vergleich von gegitterten raumzeitlichen Daten. In dem Beispiel werden Daten aus dem Ozeanmodell für Zirkulation und Gezeiten (OMCT) mit Daten, die aus anderen Simulationsmodellen oder aus Satellitenbeobachtungen stammen, verglichen [55]. Jeder Gitterpunkt hat eine geographische Koordinate und eine Zeitreihe, die das zeitliche Verhalten an dem Punkt wiedergibt. Die Simulationsmodelle erzeugen tausende oder sogar hunderttausende Zeitreihen. Für den Vergleich der raumzeitlichen Daten werden für jeden Gitterpunkt statistische Maße für die Zeitserien berechnet, z. B. Minimum und Maximum, Standardabweichung oder Energiespektrum. Das GeoVisual Analytics Werkzeug gruppiert mit Hilfe der automatisierten Datenanalyse die Gitterpunkte zu Regionen mit ähnlichem zeitlichem Verhalten. Dazu werden mehrere Clusterings für die verschiedenen statistischen Maße berechnet und diese Ergebnisse in einem Clustering-Ensemble zusammengeführt. Eine Visualisierungskomponente ermöglicht es dem Nutzer, Cluster und die dazugehörenden Simulations- und Referenzdaten räumlich und zeitlich detailliert zu untersuchen. Das GeoVisual Analytics Werkzeug verbessert den Datenvergleich gegenüber dem bisherigen Verfahren. Mit dem vorherigen Verfahren konnten nur Teilmengen der Daten verglichen werden. Nun ist es möglich, alle Daten in den Vergleich einzubeziehen. Dadurch kann ein umfassendes Bild über Ähnlichkeiten und Unterschiede in den Simulations- und Referenzdaten entwickelt werden. Auch lassen sich Annahmen einfacher überprüfen, da die Daten mit dem GeoVisual Analytics Werkzeug schnell diesbezüglich exploriert werden können.

Abb. 7 GeoVisual Analytics Werkzeug zum Vergleich gegitterter raumzeitlicher Daten

2 GeoVisual Analytics

39

Analyse geowissenschaftlicher Zeitreihendaten Auch für die Analyse geowissen-

schaftlicher Zeitreihendaten bringen Geo VisualAnalytics Werkzeuge Vorteile. Sie ermöglichen es, Zeit- und Raumdimension gleichzeitig zu betrachten und damit beide Dimensionen in Relation zu setzen. Damit unterstützen sie den Analysten bei der Beantwortung folgender Fragen: (a) Welche charakteristischen räumlichen Zustände sind in den Daten enthalten und wann treten sie auf? (b) Welches charakteristische zeitliche Verhalten ist in den Daten enthalten und wo tritt dieses auf? Darüber hinaus kann GeoVisual Analytics auch die Analyse der Korrelation von Zeitreihen unterstützen. Hilfreich ist dies ist vor allem beim Vergleich von Ensembles von Zeitreihen. Abb. 8 zeigt ein Geo Visual Analytics Werkzeug für die Analyse der Korrelation paläoklimatischer Zeitreihendaten [56]. Paläoklimatische Zeitreihen werden nicht direkt gemessen, sondern z. B. aus Stalagmiten von Tropfsteinhöhlen oder Eisbohrkernen abgeleitet. Die Datierung solcher abgeleiteter Proxidaten ist mit Unsicherheiten verbunden, daher werden Ensembles von Zeitreihen berechnet, um die Streuung der möglichen Datierung zu erfassen. Ein gängiges Verfahren für die Berechnung der Korrelation von zwei Zeitreihen ist die Windowed Cross Correlation (WCC). Es teilt die Zeitreihen in Abschnitte, sog. Windows, und berechnet für diese Abschnitte die Korrelation der beiden Zeitreihen. Die Abschnitte werden schrittweise verändert, das Window wird verschoben, um einen Versatz der korrelierenden Muster erfassen zu können. Das Verfahren ist gut geeignet für zwei Zeitreihen, hat jedoch Grenzen, wenn man es auf Ensembles von Zeitreihen anwenden möchte. Das GeoVisual Analytics Werkzeug unterstützt die Analyse der Korrelation von zwei Ensembles von Zeitreihen. Es enthält ein Modul zur semi-automatischen Analyse der Daten mit folgenden Komponenten: (1) die Kon-

Abb. 8 Geo Visual Analytics Werkzeug für die Analyse der Korrelation paläoklimatischer Zeitreihendaten

40

D. Dransch et al.

figuration der Berechnung der Windowed Cross Correlation; (2) die paarweise Berechnung der Windowed Cross Correlation für beide Zeitreihen-Ensembles; (3) Die Berechnung von Unsicherheitsmaßen für die berechneten Korrelationen. Ein zweites Modul ermöglicht die interaktive visuelle Exploration der Ergebnisse der Berechnung. Eine Komponente gibt einen Überblick über alle berechneten Korrelationen und Unsicherheiten. Eine zweite Komponente unterstützt die detaillierte Analyse der Korrelationsmuster zwischen den zwei Ensembles. Das GeoVisual Analytics Werkzeug erweitert damit das herkömmliche Verfahren der Windowed Cross Correlation und erlaubt es dem Nutzer nicht nur zwei einzelne Zeitreihen, sondern zwei Zeitreihen-Ensembles bezüglich ihrer Korrelationen zu untersuchen. Analyse von Bewegungsdaten GPS- und RFID-Technologien liefern immer mehr Daten, die die Bewegung von Individuen oder Objekten erfassen. Dies trifft für verschiedene Bereiche zu wie z. B. Logistik, Transport, Verkehr oder auch Tierbeobachtung. Bewegungsprofile erzeugen eine große Menge von Daten. GeoVisual Analytics Werkzeuge unterstützen den Analysten bei der Auswertung der großen Menge von Bewegungsdaten, indem sie Methoden der automatisierten Datenanalyse und interaktiven Visualisierung kombinieren und damit die Charakteristika der Bewegungsmuster extrahieren [57]. Automatisierte Verfahren unterstützen das Erkennen von Bewegungsmustern, Visualisierung unterstützt die Interpretation der gefundenen Muster. Analyse von Prozessen in sozialen Netzwerken Prozesse in sozialen Netzwerken, wie Informationsverteilung, lassen oft Rückschlüsse auf reale Vorgänge, wie z. B. die Ausbreitung von Krankheiten oder das Verhalten in Krisensituationen, zu und haben in der Regel einen räumlichen Aspekt. Mit Hilfe von GeoVisual Analytics Werkzeugen werden die räumliche und die soziale Dimension zusammengebracht und für die Analyse und Entscheidungsfindung zu einander in Beziehung gestellt [58]. Entscheidungsunterstützung im Krisenmanagement Während einer Krise, die durch Naturgefahren oder menschliches Einwirken entstanden ist, sind schnell Entscheidungen zu treffen, wie mit der Krise umzugehen ist. Viele verschiedene und zum Teil unsichere Informationen müssen für diese Entscheidungen zusammengebracht und verarbeitet werden. Geo Visual Analytics Werkzeuge setzen hier an, sie extrahieren wesentliche Informationen, fassen diese Informationen in einer Synthese zusammen und stellen sie verständlich für den Entscheider dar [59].

5

Ausblick

Die derzeitigen Entwicklungen zeigen, dass die integrierte Analyse verschiedener Daten eine immer größere Bedeutung erlangt und dafür neue Verfahren gebraucht werden. In den Geowissenschaften werden zunehmend Daten aus verschiedenen Quellen zusammengeführt, um Geoprozesse zu untersuchen und besser zu verstehen

2 GeoVisual Analytics

41

[60, 61]. GeoVisual Analytics Werkzeuge können die integrierte Analyse verschiedener Geodaten unterstützen, wie zahlreiche Beispiele zeigen [55, 56]. Integrierte Datenanalyse wird auch in dem Konzept von Data-intensive Science aufgegriffen. Auf der Basis der Verknüpfung verschiedener Daten sollen neue Hypothesen gebildet und neue Erkenntnisse gewonnen werden. Data-intensive Science wird als viertes Wissenschaftsparadigma definiert, das die traditionellen empirischen, theoriebildenden und simulationsbasierten Wissenschaftskonzepte ergänzt [62]. Der interaktiven Visualisierung wird eine bedeutende Rolle bei der Analyse und Interpretation der Daten zugemessen. Auch in der Wirtschaft gilt die Zusammenführung und Auswertung von Informationen als wesentlich für wirtschaftliche Entscheidungen und die Gestaltung von Geschäftsfeldern. Mit dem Begriff Business Intelligence werden Konzepte und Werkzeuge für eine bessere Informationsauswertung in der Wirtschaft umschrieben; Methoden aus dem Bereich Visual Analytics sind dort bereits fester Bestandteil der Datenanalyse. Aufgrund des großen Potentials von Visual Analytics Werkzeugen für die integrierte Datenanalyse ist absehbar, dass sie verstärkt in der Wissenschaft wie auch in der Wirtschaft für die Informationsextraktion aus Daten eingesetzt werden. Die Entwicklung geeigneter Konzepte und Werkzeuge ist dafür eine wesentliche Voraussetzung.

Literatur 1. Tukey, J.W.: Exploratory data analysis. Addison-Wesley, Reading (1977) 2. Kosslyn, S.M.: Image and mind. Harvard University Press, Cambridge (1980) 3. Rockle, A.: Image and reality. In: Rocke, A.J. (Hrsg.) Kekulé, Kopp, The Scientific Imagination, S. xxvi + 375 ff. University of Chicago Press, Chicago (2010) 4. Kaptelinin, V.: Computer-mediated activity: functional organs in social and developmental contexts. In: Nardi, B.A. (Hrsg.) Context and Conciousness: Activity Theory and HumanComputer Interaction, S. 46–68. MIT, Cambridge (1996) 5. Kaptelinin, V.: Activity theory: implications for human-computer interaction. In: Nardi, B.A. (Hrsg.) Context and Conciousness: Activity Theory and Human-Computer Interaction, S. 103–116. MIT, Cambridge (1996) 6. Norman, D.A.: Things that make us smart: Defending human attributes in the age of the machine. Perseus Books/Basic Books, Reading (1993) 7. Card, S.K., Mackinlay, J.K., Shneiderman, B.: Readings in information visualization: Using vision to think. Morgan Kaufmann, San Diego (1999) 8. Johnson-Laird, P.: Mental models. Harvard University Press, Cambridge (1983, Reprint) 9. Downs, R.M., Stea D.: Kognitive Karten. Die Welt in unseren Köpfen. Harper & Row. UTB, New York (1982) 10. Norman, D.A.: Cognitive engineering. In: Norman, A.D., Draper, S.W., (Hrsg.) User Centered System Design. New Perspectives on Human-Computer Interaction, S. 31–61. Lawrence Erlbaum, Hillsdale (1986) 11. Wehrend, S., Lewis, C.: A problem-oriented classification of visualization techniques. In: IEEE Proceedings of the First IEEE Conference on Visualization: Visualization’90, San Francisco, S. 139–143. IEEE (1990) 12. Casner, S.: A task-analytic approach to the automated design of graphic presentations. ACM Trans. Graph. 10(2), 111–151 (1991)

42

D. Dransch et al.

13. Knapp, L.: A task analysis approach to the visualization of geographic data. In: Nyerges, T.L. et al. (Hrsg.) Cognitive Aspects of Human-Computer Interaction for Geographic Information Systems, S. 355–371. Kluwer Academic, Dordrecht/Boston (1995) 14. Thomas, J.J., Cook, K.A. (Hrsg.): Illuminating the path: The research and development agenda for visual analytics, 1. Aufl. IEEE, Los Alamitos (2005) 15. Keim, D.A., Mansmann, F., Schneidewind, J., Ziegler, H.: Challenges in visual data analysis. In: Proceedings of Information Visualization (IV 2006), Baltimore, S. 9–16. IEEE (2006) 16. DiBiase, D.: Visualization in the earth sciences. Earth Miner. Sci. 59(2), 13–18 (1990) 17. Peterson, M.P.: Interactive and animated cartography. Prentice Hall, Englewood Cliffs (1995) 18. MacEachren, A.M.: How maps work: Representation, visualization, and design. Paperback Edition 2004. The Guilford Press, New York (1995) 19. MacEachren, A.M., Kraak, M.-J.: Research challenges in geovisualization. Cartogr. Geogr. Inf. Sci. 28(1), 3–12 (2001) 20. Andrienko, G., Andrienko, N., Demsar, U., Dransch, D., Fabrikant, S., Jern, M., Kraak, M.-J., Schumann, H., Tominski, C.: Space, time and visual analytics. Int. J. Geogr. Inf. Sci. 24(10), 1577–1600 (2010) 21. Andrienko, N., Andrienko, G.: Exploratory analysis of spatial and temporal data: A systematic approach. Springer, Berlin (2006) 22. Wang, N., Biggs, T., Skupin, A.: Visualizing gridded time series data with self-organizing maps: an application to multi-year snow dynamics in the northern hemisphere. Comput. Environ. Urban Syst. 39, 107–120 (2013) 23. Guo, D., Gahegan, M., MacEachren, A.M., et al.: Multivariate analysis and eovisualization with an integrated geographic knowledge discovery approach. Cartogr. Geogr. Inf. Sci. 32(2), 113–132 (2005) 24. Köthur, P., Sips, M., Unger, A., Kuhlmann, J., Dransch, D.: Interactive visual summaries for detection and assessment of spatiotemporal patterns in geospatial time series. Inf. Vis. 13(3), 283–298 (2014) 25. Dykes, J., MacEachren, A.M., Kraak, M.-J. (Hrsg.): Exploring geovisualization. Elsevier, Amsterdam (2005) 26. Fuhrmann, S., Pike, W.: User-centered design of collaborative geovisualization tools. In: Dykes, J., MacEachren, A.M., Kraak, M.-J. (Hrsg.) Exploring geovisualization, S. 501–610. Elsevier, Amsterdam (2005) 27. Dransch, D.: Handlungsorientierte Mensch-Computer-Interaktion für die kartographische Informationsverarbeitung in Geo-Informationssystemen. Berliner geowissenschaftliche Abhandlungen, Reihe C: Kartographie. Selbstverlag Fachbereich Geowissenschaften – Freie Universität Berlin, Berlin (2002) 28. Card, S., Moran, T., Newell, A.: The Psychology of human computer interaction. Lawrence Erlbaum Associatles, Hillsdale (1983) 29. Aebli, H.: Denken: Das Ordnen des Tuns. Band I: Kognitive Aspekte der Handlungstheorie. Klett-Cotta, Stuttgart (1980) 30. Dörner, D.: Kognitive Prozesse und die Organisation des Handelns. In: Hacker, W., Voplert, M., Cranach, M., (Hrsg.) Kognitive und motivationale Aspekte der Handlung (1983) 31. Dransch, D., Köthur, P., Schulte, S., et al.: Assessing the quality of geoscientific simulation models with visual analytics methods - a design study. Int. J. Geogr. Inf. Sci. 24(10), 1459–1479 (2010) 32. Preim, B.D., Dachselt, R.: Interaktive Systeme, Band 1: Grundlagen, Graphical User Interfaces, Informationsvisualisierung. Springer, Heidelberg (2010) 33. Clark, R.E., Feldon, D., Van Merrienboer, J.J.G., Yates, K., Early, S.: Cognitive task analysis. In: Spector, J.M., Merrill, M.D., van Merrienboer, J.J.G., Driscoll, M.P. (Hrsg.) Handbook of Research on Educational Communications and Technology, 3. Aufl. Lawrence Erlbaum Associates, Mahwah (2008) 34. Jonassen, D.H., Tessmer, M., Hannum, W.H.: Task analysis methods for instructional design. Lawrence Erlbaum Associates, Mahwah (1999)

2 GeoVisual Analytics

43

35. Unger, A., Schulte, S., Klemann, V., Dransch, D.: A visual analytics concept for the validation of geoscientific simulation models. IEEE Trans. Visualiz. Comput. Graph. 18(12), 2216–2225 (2012) 36. Schumann, H., Müller, W.: Visualisierung. Grundlagen und allgemeine Methoden. Springer, Berlin (2000) 37. Spence, R.: Information visualization: An introduction. Springer International Publishing, Cham (2014) 38. Bertin, J.: Graphische Semiologie: Diagramme, Netze, Karten. Walter de Gruyter, Berlin (1974) 39. Hake, G., Grünreich, D., Meng, L.: Kartographie. Visualisierung raum-zeitlicher Information. Walter De Gruyter, Berlin (2002) 40. Slocum, T.A., McMaster, R.B., Kessler, F.C., Howard, H.H.: Thematic Cartography and Geographical Visualization. Prentice Hall, Upper Saddle River (2009) 41. Chen, M., Kaufman A.E., Yagel, R. (Hrsg.): Volume graphics. Springer, London/New York (2000) 42. Engel, K., Hadwiger, M., Kniss, J., Rezk-Salama, Ch., Weiskopf, D. (Hrsg.): Real-time volume graphics. A K Peters, Wellesley (2006) 43. Aigner, W., Miksch, S., Schumann, H., Tominski, C.: Visualization of time-oriented data. human-computer interaction series. Springer, Berlin (2011) 44. Han, H., Kamber, M., Pei, J.: Data Mining: Concepts and techniques. Morgan Kaufmann Series in Data Management Systems, 3. überarb. Aufl. Elsevier, Oxford (2011) 45. Quinlan, J.R.: Induction of decision trees. Machine Learning, Bd. 1(1). Kluwer Academic, Boston (1986) 46. Quinlan, J.R.: Programs for machine learning. Morgan Kaufmann Series in Machine Learning. Morgan Kaufmann, San Mateo (1993) 47. Bishop, C.: Pattern recognition and machine learning. Springer series in information science and statistic. Springer, New York (2007) 48. Vapnik, V.: The nature of statistical learning theory. Springer series in information science and statistics. Springer, New York (1999) 49. Ester, M., Sander, J.: Knowledge discovery in databases. Techniken und Anwendungen. Springer, Berlin/New York (2000) 50. MacQueen, J.: Some methods for classification and analysis of multivariate observations. In: 5th Berkely Symposium on Mathematical Statistics and Probability, S. 281–297. University of California Press, Berkeley und Los Angeles (1967) 51. Jain, A.K., Dubes, R.C.: Algorithms for clustering data. Prentice hall advanced reference series: Computer science. Prentice Hall, Englewood Cliffs (1988) 52. Ester, M., Kriegel, H.-P., Sander, J., Xu, X.: A density-based algorithm for discovering clusters in large spatial databases with noise. In: ACM Internation Conference on Knowledge Discovery and Data Mining (KDD’96). AAAI Press, Menlo Park (1996) 53. Agrawal, R., Srikant, R.: Fast algorithms for mining association rules. In: ACM International Conference on Management of Data (SIGMOD’94). ACM, New York (1994) 54. Gray, J., Chaudhuri, S., Bosworth, A., Layman, A., Reichart, D., Venkatrao, M., Pellow, F., Pirahesh, H.: Data cube: a relational aggregation operator generalizing group-by, crosstab, and sub-totals. Data Min. Knowl. Discov. 1(1), 29–53. Kluwer Academic Publishers (1997) 55. Köthur, P., Sips, M., Dobslaw, H., Dransch, D.: Visual analytics for comparison of ocean model output with reference data: detecting and analyzing geophysical processes using clustering ensembles. IEEE Trans. Vis. Comput. Graph. 20(12), 1893–1902 (2014) 56. Köthur, P., Witt, C., Sips, M., Marwan, N., Schinkel, S., Dransch, D.: Visual analytics for correlation-based comparison of time series ensembles. Comput. Graph. Forum 34(3), 411–420 (2015, im Druck) 57. Andrienko, G., Andrienko, N., Bak, P., Keim, D., Wrobel, S.: Visual analytics of movement. Springer, Berlin (2013)

44

D. Dransch et al.

58. Luo, W., MacEachren, A.: Geo-social visual analytics. J. Spat. Inf. Sci. 8, 27–66 (2014) 59. Tomaszewski, B., Mac Eachren, A.: Geovisual analytics to support crisis management: information foraging for geo-historical context. Inf. Vis. 11(4), 339–359 (2012) 60. Ardhuin, F., Stutzmann, E., Schimmel, M., Mangeney, A.: Ocean wave sources of seismic noise. J. Geophys. Res. 116, 2156–2202 (2011). https://doi.org/10.1029/2011JC006952 61. Wahr, J., Molenaar, M., Bryan, F.: Time variability of the Earth’s gravity field: hydrological and oceanic effects and their possible detection using GRACE. J. Geophys. Res. Solid Earth 103(B12), 30205–30229 (1998). https://doi.org/10.1029/98JB02844 62. Gray, J.: Jim Gray on eScience: a transformed scientific method. In: Hey, T., Tansley, S., Tolle, K. (Hrsg.) The Fourth Paradigm: Data-Intensive Scientific Discovery, S. xvii–xxxi. Microsoft Research, Redmond (2009)

3

3D-Visualisierung und Mixed Reality Volker Paelke

Inhalt 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Ein erweitertes Model der Kommunikation von raumbezogenen Daten . . . . . . . . . . . . . . . 3 Interaktionsparadigmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Virtual Reality (VR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Augmented Reality (AR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Mixed Reality (MR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Tangible Interaction (TUI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Context Aware Interfaces (CAI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Aufbau von Mixed Reality Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Basistechnologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Positionsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Anwendungen von Mixed Reality Systemen für raumbezogene Informationen . . . . . . . . . 7 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46 48 50 51 52 53 54 55 55 56 57 59 61 64 66

Zusammenfassung

3D Darstellungen, Augmented-Reality-Visualisierungstechniken und fortgeschrittene Interaktionstechniken haben ein großes Potenzial, um die Interpretation von Geodaten zu unterstützen und die Interaktion mit raumbezogenen Daten zu vereinfachen. In diesem Kapitel wird dargestellt, wie diese Technologien die klassische Kartographie und Geovisualisierung ergänzen und welche Anwendungsmöglichkeiten sich daraus ergeben. Neben einer Beschreibung der technischen Grundlagen liegt der Schwerpunkt dabei auf der Integration der

V. Paelke () Human-Computer-Interaction, Bremen University of Applied Sciences, Bremen, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_62

45

46

V. Paelke

verschieden Technologieaspekte in das übergreifende Interaktionsparadigma der Augmented Reality. Schlüsselwörter

Augmented Reality · Virtual Reality · Mixed Reality · Interaktionsparadigmen · Geovisualisierung

1

Einleitung

In der Informatik beschreibt der Begriff der Visualisierung die computergestützte Abbildung von Daten in effektive visuelle Darstellungen. Die Benutzer haben dabei die Möglichkeit den Abbildungsprozess zur Laufzeit durch Interaktion zu beeinflussen. Um für unterschiedliche Anwendungen expressive, effektive und angemessene Darstellungen aus großen Datenmengen zu generieren sind Visualisierungstechniken und Metaphern für verschieden Anwendungsfelder entwickelt worden. So beschäftigt sich der Bereich der „wissenschaftlichen Visualisierung“ mit der Visualisierung von Simulations- und Messdaten mit direktem Bezug zu physikalischen Daten, während der Bereich der „Informationsvisualisierung“ mit Daten arbeitet, die keinen solchen Bezug aufweisen (z. B. Wirtschaftsdaten). Zentrale Unterschiede zu statischen Darstellungstechniken wie Tabellen, Graphen und Karten sind dabei zum einen die Möglichkeiten zur Interaktion, zum anderen die Nutzung erweiterter Ausgabemodalitäten. Durch die Interaktionsmöglichkeiten in einem Visualisierungssystem werden die Benutzer in die Lage versetzt, sowohl die Darstellung an Ihre speziellen Anforderungen und die konkrete Aufgabe anzupassen, als auch direkt mit den Daten zu interagieren. Während klassische Informationsdarstellungen typischerweise Text und zweidimensionale Grafiken nutzen, unterstützen Visualisierungssysteme ein breites Spektrum an Ausgabemodalitäten, die zum einen die Möglichkeiten der visuellen Wahrnehmung besser ausschöpfen (z. B. durch dynamische, animierte Darstellungen oder die Unterstützung stereoskopischer Visualisierungen durch 3D Displays), zum anderen weitere Wahrnehmungskanäle für die Informationsvermittlung erschließen (z. B. Darstellung taktiler und haptischer Information oder die Nutzung von Audio zur klanglichen Repräsentation von numerischen Daten als „Verklanglichung“ oder „Sonification“). Die Geovisualisierung kann als weiteres spezielles Anwendungsfeld der Visualisierung betrachtet werden, das auf geo-referenzierte Daten fokussiert. Geovisualisierungssysteme kombinieren Analysetechniken aus GIS und Statistik mit kartographischen Darstellungstechniken und Technologien aus der wissenschaftlichen Visualisierung und Informationsvisualisierung. Für Nutzer, die zur Erfüllung einer Aufgabe raumbezogene Informationen benötigen stellen Geovisualisierungssysteme visuelle Darstellungen bereit, die eine effektive Interpretation von Daten im räumlichen Kontext ermöglichen, und kombinieren diese mit Techniken zur Interaktion. Durch die Interaktion können die Darstellungstechniken,

3 3D-Visualisierung und Mixed Reality

47

die Analysemethoden und die raumbezogenen Daten selbst verändert werden. Zentrales Ziel der Geovisualisierung ist wie in der Kartographie die Kommunikation räumlicher Inhalte. Hinsichtlich des Anwendungskontextes und der Aufgabe eines Benutzers lassen sich verschiedene Visualisierungszwecke unterscheiden, die das komplette Spektrum von der Exploration neuer Daten bis zur Präsentation bekannter Information für Dritte umfassen. Die Geovisualisierung baut auf den Grundlagen der Kartographie auf, erweitert und ergänzt diese aber in mehreren Aspekten: – Während in der klassischen Kartographie oftmals die Präsentation bekannter Informationen im Vordergrund steht, unterstützen Geovisualisierungssysteme auch effektiv die Exploration von unbekannten Daten – Geovisualisierungssysteme bilden oft auch die Grundlage für Anwendungen, in denen die raumbezogene Information nicht unbedingt im Vordergrund steht, sondern den Kontext für weitergehende Informationen und Funktionalitäten bereitstellt, etwa in Simulatoren, „Big-Data“ Anwendungen, oder MonitoringSystemen die Echtzeit-Daten integrieren – Geovisualisierungssysteme adressieren einen erweiterten Nutzerkreis und ermöglichen es durch ihre Anpassbarkeit auf Diversity-Aspekte oder die Anforderungen einer alternde Bevölkerung einzugehen – Durch die integrierten Interaktionsmöglichkeiten gehen Geovisualisierungssysteme über statische Informationsquellen hinaus und können integrierte Werkzeugfunktionalitäten zur direkten Unterstützung von Aufgaben anbieten. Das Spektrum der Geovisualisierung hat sich in den letzten Jahren durch die rasante Entwicklung von neuen Plattformen und Hardware-Komponenten stark erweitert. Beispiele sind mobile Plattformen wie Smartphones und Tablets, sowie Wearables wie Smartwatches und Smartglasses, die insbesondere für ortsbezogen Geovisualisierungsanwendungen geeignet sind, stereoskopische 3D Displays und Virtual-Reality Headsets, die eine (immersive) stereoskopische Darstellung unterstützen und neue Interaktionsmodalitäten und Sensoren, die Konzepte wie Tangible Interaction (Interaktion mit physisch greifbaren Objekten) und Natural User Interfaces (z. B. die Interaktion durch Gesten und Sprache) unterstützen. Eine zentrale Herausforderung für die Geovisualisierung liegt darin die durch diese Technologien ermöglichten Visualisierungs- und Interaktionstechniken so nutzbar zu machen, dass für die Anwender attraktive, nutzbare und effektive Anwendungen entstehen. Dieser Beitrag betrachtet zunächst die prinzipiellen Erweiterungsmöglichkeiten des Visualisierungsprozesses von raumbezogenen Daten und definiert darauf aufbauend zentrale Konzepte wie Augmented Reality (Erweiterte Realität) und Tangible Interaction (Begreifbare Interaktion). Auf diese Einführung in die gängigen Definitionen folgt ein Überblick über die wesentlichen technologischen Komponenten solcher Systeme. Abschließend werden kurz ausgewählte Anwendungsbeispiele vorgestellt.

48

2

V. Paelke

Ein erweitertes Model der Kommunikation von raumbezogenen Daten

Die primäre Funktion von Karten ist die Kommunikation raumbezogener Daten. Im Fall von gedruckten Karten ist die Aufgabe des Benutzers zur Zeit der Herstellung nicht noch nicht in jedem Fall bekannt. Daher müssen Kartographen eine Karte so gestalten, dass sie alle möglicherweise erforderlichen Informationen beinhaltet. Die Kartographie hat daher zahlreiche Techniken entwickelt, um ein Höchstmaß an Information in der graphischen Kartendarstellung zu codieren. Allerdings werden Daten mit Raumbezug zunehmend von Benutzern genutzt, die wenig Expertise im Umgang mit Geodaten und abstrahierten kartographischen Darstellungen haben. Die Interaktionsmöglichkeiten und die erweiterten Ausgabemodalitäten von Geovisualisierungssystemen bieten hier zwei Lösungsansätze, um raumbezogene Informationen für weitere Nutzergruppen nutzbar zu machen. Zum einen können in einem interaktiven System die präsentierten Informationen zur Laufzeit an die aktuelle Aufgabe und Situation des Nutzers angepasst werden. Insbesondere können Informationen, die für die aktuelle Aufgabe nicht relevant sind, ausgeblendet werden. So kann etwa in der Routenführung mit einem Fahrzeugnavigationssystem die darzustellende Information zu einem gegebenen Zeitpunkt auf eine einzige Richtungsanweisung reduziert werden. Zum anderen ermöglichen es die erweiterten Ausgabemodalitäten die Lücke zwischen der realen Umgebung und einer abstrahierten Kartendarstellungen in einer flexibel an die Anforderungen der Nutzer angepassten Weise zu überbrücken. Während erfahrenen Nutzern eine abstraktere Darstellung mit hoher Informationsdichte präsentiert werden kann, können weniger erfahrene Nutzer durch eine photorealistische Darstellung mit hohem Wiedererkennungswert unterstützt werden. Eine besondere Herausforderung für unerfahrene Nutzer stellt dabei die Zuordnung von in einer Karte verzeichneten Informationen zu dem entsprechenden Ort in der realen Umgebung dar. Hier können insbesondere Ansätze aus der Augmented Reality hilfreich sein, die raumbezogene Daten nahtlos in die reale Umgebung integrieren. Um die erweiterten Möglichkeiten in strukturierter Form zu diskutieren, wird im Folgenden zunächst ein klassisches kartographisches Kommunikationsmodell eingeführt und dieses dann schrittweise um die Möglichkeiten interaktiver Geovisualisierungssysteme ergänzt. Das Kommunikationsmodell in Abb. 1 zeigt die Datenverarbeitungsschritte bei der Erstellung von klassischen Papierkarten. Informationen aus der Umgebung werden zunächst erfasst. Die resultierenden Rohdaten werden dann verarbeitet (vereinfacht, vereinheitlicht) und in einem Modell, das die wesentlichen räumlichen Informationen enthält, abgebildet. In der nächsten Stufe wird aus diesem Model die Karte als statische graphische Darstellung erzeugt. Während der Anwendung interpretiert der Nutzer die gedruckt Karte, um die für seine aktuelle Aufgabe und seinen Nutzungskontext relevanten Informationen zu extrahieren. Der Übergang von statischen gedruckten Karten zu dynamischen interaktiven Systemen ermöglicht es diesen Prozess dynamisch zu machen. Eine solche Geovisualisierung als dynamische „Karte“ kann zur Laufzeit sowohl auf

3 3D-Visualisierung und Mixed Reality

physische Welt

RohDaten

49

Modell

Karte

Nutzer

Abb. 1 Kartographisches Kommunikationsmodell

Abb. 2 Erweitertes Kommunikationsmodell für interaktive Geovisualisierungssysteme

Benutzerinteraktionen, als auch auf Änderungen in der Umgebung und den Daten reagieren. Abb. 2 zeigt, wie das Kommunikationsmodell erweitert werden kann, um diese dynamischen Aspekte abzudecken. Als erste Erweiterung können neben statischen 2D-Grafikem anderen Ausgabemodalitäten verwendet werden, z. B. 3D Grafik und Animation (1). Da der Inhalt zur Laufzeit an die Anforderungen der Anwender angepasst werden kann, wird es möglich visuelle Präsentationen zu verwenden, die an die speziellen Anforderungen und Vorlieben der Nutzer angepasst sind. Eine zweite Erweiterung (2) ist eine Interaktion, die die Kartendarstellung ändert. Typische Beispiele sind die Auswahl von Inhalten, des Maßstabs und des Präsentationsstils. Weitere Interaktionen modifizieren oder erweitern das Modell selbst (3). Änderungen können einfache Annotation von Standorten mit Texten oder Bildern sein (z. B. die Push-Pins in Google Maps) oder komplexen Veränderungen der Daten im Modell umfassen, etwa um Veränderungen in der realen Umwelt aufzuzeichnen. Die nächste Erweiterung umfasst die Integration von neuen Rohdaten zur Laufzeit (4). Diese können z. B. aktuelle Sensordaten sein. Die Einflussmöglichkeiten der Interaktion umfassen dann auch die (Re-)Konfiguration der Sensoren. Eine zentrale Herausforderung für

50

V. Paelke

Systeme die neue Rohdaten zur Laufzeit integrieren ist, dass die Verarbeitung dieser Daten komplett automatisiert werden muss. Eine weitere Erweiterung ist die Interaktion der Benutzer direkt mit der realen Umgebung (5). In einem Echtzeit-System können die resultierenden Veränderungen die gesamte Verarbeitungs- und Anzeigepipeline beeinflussen. Tangible User Interfaces (TUI) sind ein Beispiel für einen solchen Ansatz, in dem physikalische Objekte manipuliert werden, um ein Softwaresystem zu steuern [24]. Die direkte Integration der realen Umgebung (6) bedeutet, dass die aus dem Modell generierten Präsentationen direkt in die Wahrnehmung der realen Umgebung integriert werden Bekannte Ansätze sind Augmented Reality (AR) und Mixed Realiy (MR) Systeme [1, 18], in denen Computergrafik-Objekte direkt in die Sicht des Anwenders integriert werden. Für die Nutzer entfällt dabei der Kontextwechsel zwischen der Verwendung einer Karte und der tatsächlichen räumlichen Aufgabe. Eine zentrale Herausforderung für die Entwickler interaktiver Geovisualisierungssysteme ist es diese Möglichkeiten zu nutzen, um eine effektive Kommunikation zu gewährleisten.

3

Interaktionsparadigmen

Betrachtet man die Entwicklung interaktiver Systeme lassen sich unterschiedliche Generationen und Interaktionsparadigmen unterscheiden. Historisch betrachtet ging die Entwicklung von der Steuerung über Texteingaben auf der Kommandozeile (CLI: Command Line Interface) zu den heute allgegenwärtigen grafischen Benutzeroberflächen (GUI: Graphical User Interface), die nach den grundlegenden Elementen Windows, Icons, Menüs und Pointer (Zeiger) auch als WIMP Interfaces bezeichnet werden. Diese klassischen Interaktionsparadigmen werden zunehmend durch weitere sog Post-WIMP Konzepte ergänzt, die das Ziel verfolgen die Interaktion einfacher und intuitiver zu gestalten. Beispiele dafür sind die zunehmende Nutzung von (Multi-)Touch und Zeige-Gesten, die oft als Natural User Interfaces (NUI) oder Reality Based User Interfaces (RBUI) bezeichnet werden. Von zentraler Bedeutung für die zuvor präsentierten Erweiterungen des Kommunikationsmodells sind dabei Virtual Reality, Augmented Reality, Mixed Reality und begreifbare Benutzerschnittstellen (Tangible User Interface), die im Folgenden detaillierter vorgestellt werden. Eine zentrale Komponente für Virtual Reality, Augmented Reality und Mixed Reality ist die 3D Modellierung der Inhalte und deren Abbildung in 3D-Visualisierungen. Gerade bei der 3D Modellierung realer und imaginärer Umgebungen gibt es enge Bezüge zur Geoinformatik. Die 3D Visualisierung beschäftigt sich mit der räumlich korrekten Darstellung von geometrischen Informationen. Entscheidend ist dabei die dem Betrachter verfügbar gemachte Tiefeninformation. Dabei sind monoskopische Tiefeninformationen wie Schattierung und Perspektive von der stereoskopischen Tiefeninformation zu unterscheiden. Stereoskopische Tiefeninformation basiert auf der Interpretation der Unterschiede in den Bildern auf der Netzhaut der zwei Augen des Betrachters, die durch ihren horizontalen

3 3D-Visualisierung und Mixed Reality

51

Abstand leicht unterschiedliche Sichten auf die gleiche Szene haben. Aktuelle 3D Grafik Hardware und Software ermöglicht es zahlreiche monoskopische Tiefeninformationen aus 3D Modellen in „Echtzeit“ zu berechnen (insbesondere Perspektive, Verdeckung, Schattierung, Schattenwurf). „Echtzeit“ bezieht sich hierbei auf die Berechnung der Grafiken zur Laufzeit, unter Berücksichtigung der interaktiven Eingaben des Benutzers. Ziel ist dabei eine Aktualisierungsrate der Grafik, die keine Sprünge aufweist und verzögerungsfrei auf Nutzereingaben reagiert, idealerweise identisch mit der Aktualisierungsrate des verwendeten Displays, also z. B. bei einem 60 Hz Display eine Aktualisierungsrate von 60 fps (frames per second). Stereoskopische Tiefeninformation wird auf der Softwareseite durch die Berechnung von zwei Ansichten der Szene aus den beiden Augenpositionen des Betrachters generiert. Für die Darstellung dieser Bilder werden dann stereoskopische Displays benötigt, die dafür sorgen, dass jedes Auge des Betrachters (nur) das für dieses Auge relevante Bild wahrnimmt.

3.1

Virtual Reality (VR)

Als Virtual Reality (virtuelle Realität) oder auch Virtual Environment (VE, virtuelle Umgebung) werden interaktive Anwendungen bezeichnet, in denen die vom Benutzer wahrnehmbare Umwelt (also insbesondere die sichtbaren Elemente) vollständig computergeneriert ist. Es gibt keine allgemein anerkannte Definition der Virtual Reality. In Science-Fiction-Filmen und Literatur wird Virtual Reality oft als ein Computer-generiertes Erlebnis dargestellt, das alle Sinne umfasst und (fast) nicht mehr von realen Erfahrungen unterschieden werden kann. In den frühen Tagen des Virtual-Reality-Hypes der 1990er-Jahre wurde eine solche Vision stark propagiert und führte dann zu einer tiefen Ernüchterung, als die verfügbaren Systeme dieses ehrgeizige Ziel bei weitem nicht erreichen konnten Heute gibt es zwei Hauptansätze, um Systeme der virtuellen Realität zu definieren: Der erste ist technologiezentriert und charakterisiert VR als immersive, interaktive Systeme, die stereoskopische Displays und multimodale Eingabe verwenden (Cruz-Neira et al. [3]). Der zweite fokussiert auf das Erlebnis des Nutzers (User Experience), speziell auf den Aspekt der Immersion. Unter „Immersion“ oder „Presence“ wird dabei der Grad des „Eintauchens“ eines Benutzers in die virtuelle Umgebung verstanden [9]. Während in den 90er-Jahren die Verwendung des Begriffes VR oft auf Interaktionsumgebungen mit hoch-immersiven Darstellungen beschränkt wurde, wird die Verwendung in den letzten Jahren oft auch auf einfachere 3D Projektionen und 3D Anwendungen auf PCs ausgedehnt. In klassischen VR Displays wie Datenhelmen (HMD, Head-Mounted-Display) und CAVEs (Quaderförmige Räume mit Stereoprojektion auf bis zu 6 Wände) ist für den Benutzer in allen Richtungen nur die computergenerierte Umgebung sichtbar, womit ein hoher Immersionsgrad erreicht werden kann. Bei der Verwendung von Bildschirmen und einfachen (3D) Projektionen bleibt hingegen die reale Umgebung im Umfeld sichtbar, die virtuelle

52

V. Paelke

Umgebung kann nur durch eine Art „Fenster“ betrachten werden (through-thewindow VR), was zu einem geringeren Immersionsgrad führen kann. Nach einem großen Hype in den 90er-Jahren verschwand die VR weitestgehend aus der öffentlichen Wahrnehmung, auch wenn die akademische Forschung weiterging und sich erste industrielle Anwendungen (z. B. im Design Review im Automobilbau, wo Entwürfe überprüft und von den Entscheidungsträgern frei gegeben werden) etablierten. Dabei wurde oft der Begriff Virtual Environment (virtuelle Umgebung) genutzt, um den vorbelasteten Begriff der VR zu vermeiden. Großes öffentliches Interesse erzielte VR erst wieder, als mit der Oculus Rift ein Prototypen eines qualitativ hochwertigen immersiven Head-Mounted Displays präsentiert wurde [19] und Facebook im März 2014 den Kauf von Oculus für $ 2 Mrd. bekannt gab [7].

3.2

Augmented Reality (AR)

Augmented Reality (erweiterte Realität) Schnittstellen kombinieren eine reale physische Umgebung mit virtuellen Elementen. Der Schwerpunkt liegt dabei auf der Wahrnehmung der realen Umgebung, die um virtuelle Elemente ergänzt wird. In der Literatur wird meist auf die Definition von Azuma [2] verwiesen. Ein AR System muss demnach folgende charakteristische Eigenschaften aufweisen: • Innerhalb einer realen Umgebung werden virtuelle und reale Elemente gemischt. • Das System ist interaktiv und arbeitet in Echtzeit. • Die virtuellen Informationen sind dreidimensional an einem realen Ort registriert. Diese Definition ist dabei nicht auf die grafische Augmentierung begrenzt, sondern umfasst alle Sinne als mögliche Wahrnehmungskanäle (insbesondere auch Gehör und Haptik). Auch die Idee, Teile der realen Umgebung zu entfernen (auch als Mediated Reality bezeichnet) wird von dieser Definition umfasst. Die technische Umsetzung von Mediated Reality erfolgt dabei entweder durch Inpainting, wobei benachbarte Texturen zum Überdecken der „Störungen“ verwendet werden, oder durch Überlagerung mit einem 3D Modell der idealisierten Umgebung. Teilweise wird der Begriff Augmented Reality allerdings auch für Systeme verwendet, die die Kriterien nach Azuma nicht erfüllen. Die Entwicklung von AR Anwendungen war lange Zeit durch die verfügbaren Basistechnologien beschränkt (z. B. fehlende Technologien zur hinreichend genauen räumlichen Positionsbestimmung), was Forscher zwang sich auf diese Probleme zu konzentrieren [1]. Mit der zunehmenden Reife der Basistechnologien sind in den letzten Jahren in Forschung und Entwicklung die Anwendungen stärker in den Vordergrund gerückt. So sind AR Anwendungen für Smartphones inzwischen weit verbreitet, und Augmented Reality einem breiten Nutzerspektrum zumindest als Begriff bekannt. Aus der Inhalts-Perspektive sind die meisten Anwendungen allerdings noch sehr begrenzt.

3 3D-Visualisierung und Mixed Reality

53

Die Forschung hat im Bereich der Augmented Reality eine reiche Sammlung von Basistechnologien in verschiedenen Stadien der Verfeinerung produziert. Diese stehen in der Regel als Software-Bibliotheken zur Verfügung und bieten notwendige. Funktionen an, etwa zur präzisen räumliche Positionierung [23]. Komplexere Komponenten werden in einem gewissen Ausmaß von Toolkits wie Metaio [15] unterstützt. Was das Design angeht sind die verfügbaren Werkzeuge aber immer noch sehr technologiegetrieben oder unterstützen nur die Konfiguration einfacher Anwendungen in einem visuellen Editor. Auch die Augmented Reality hat in den letzten Jahren einen starken Schub durch die verfügbare Hardware erhalten. Mobile Endgeräte wie Smartphones und Tablets, die neben hochauflösenden Kameras und Displays auch GPS Empfänger und weitere Sensoren integrieren haben sich zur meistverwendeten Plattform entwickelt. Daneben stehen den Entwicklern Projektoren und in zunehmendem Maße „see-through“ Datenbrillen zur Verfügung, die Computergrafik optisch in die Umgebungssicht des Benutzers integrieren. So erregte Microsoft Anfang 2015 große Aufmerksamkeit mit dem Prototypen seines Hololens Displays [16], wobei Microsoft allerdings den Begriff Augmented Reality vermied und versuchte den Begriff des „holographic computing“ zu prägen.

3.3

Mixed Reality (MR)

Der Begriff der Mixed Reality (gemischte Realitäten) wurde von Paul Milgram geprägt [17]. Unter diesem Oberbegriff werden Schnittstellenkonzepte zusammengefasst, die Elemente der realen (physischen) Umgebung mit virtuellen (computergenerierten) Elementen vermischen. Das von Milgram vorgeschlagene MixedReality Kontinuum (siehe Abb. 3) bietet einen Rahmen in den sich Entwicklungen wie Virtual Reality (VR, virtuelle Realität) und Augmented Reality (AR, erweiterte Realität) einordnen lassen. Das Kontinuum reicht dabei von den reinen virtuellen Umgebungen der Virtual Reality, in denen alle wahrnehmbaren Inhalte computergeneriert sind, über die Mischformen der angereicherten Virtualität (Augmented Virtuality, AV) und Augmented Reality, in denen in unterschiedlichem Umfang reale Elemente mit virtuellen kombiniert werden, bis zur vollständig realen Umgebung ohne computergenerierte Erweiterungen. Mixed Reality bietet sich damit als Oberbegriff für die zuvor beschriebene Paradigmen an, ist allerdings in der weiten Öffentlichkeit weniger bekannt.

Abb. 3 Mixed Reality Spektrum nach Milgram

54

V. Paelke

Viele Anwendungen arbeiten mit raumbezogenen Daten, wobei dieser Raumbezug offensichtlich sein kann, wie in einem Fahrzeugnavigationssystem, oder ein impliziter Aspekt der Anwendung, etwa in Klimasimulationen. Die Benutzer brauchen geeignete Darstellungen und Interaktionselemente, um diese Daten interpretieren, analysieren und manipulieren zu können. Raumbezogenen Informationen müssen dabei in Relation zu einer realen physikalischen Umgebung interpretiert werden. Das Konzept der Mixed Reality erlaubt es verschiedene raumbezogene Interaktionselemente zu integrieren. Gemeinsames Element ist dabei ein der Anwendung zugrundeliegendes räumliches Umgebungsmodell. Zur Realisierung solcher Oberflächen bietet es sich daher an, auf entsprechende Methoden zur räumlichen Erfassung, Verwaltung und Analyse von Daten aus der Geoinformatik zurückzugreifen. Während Mixed Reality Technologien in vielen Anwendungsfeldern eingesetzt werden können, ist der Bezug zur Geoinformatik und Kartographie besonders ausgeprägt, da diese nicht nur in den Anwendungen profitieren kann, sondern auch umgekehrt Fachwissen in zahlreichen Bereichen bereitstellen kann, die für die Entwicklung von skalierbaren MR-Systemen wichtig sind. Dazu gehören unter anderem die effektive Erfassung der räumlichen Umgebungsinformationen, die effiziente Verwaltung und Abfrage von Geodaten, sowie Visualisierungstechniken für Geodaten.

3.4

Tangible Interaction (TUI)

Der von Ullmer und Ishii [26] geprägte Begriff der Tangible User Interfaces (etwa anfassbare oder begreifbare Benutzerschnittstelle) bezieht sich auf Schnittstellen, die dem Benutzer die Interaktion mit dem Computer durch reale Objekte ermöglichen. Die Objekte sind dabei durch Sensorik so mit den computerinternen Informationen verknüpft, dass ihre räumliche Manipulation eine entsprechende interaktive Veränderung bewirkt. In der Praxis werden TUIs oft als AR Anwendungen realisiert, beispielsweise in dem Platzhalter-Objekte zur Interaktion verwendet werden, denen durch das AR System eine grafische Darstellung der entsprechenden virtuellen Objekte und Informationen überlagert wird [25]. Auch begreifbare/gegenständliche Benutzerschnittstellen (TUI: Tangible User Interface) verknüpfen damit virtuelle und reale Komponenten. Im Gegensatz zu Augmented und Mixed Reality Systemen, die oft stark auf die Ausgabe fokussieren, liegt der Schwerpunkt bei TUIs allerdings auf der Interaktion. In einem Tangible User Interface kann der Nutzer durch das manipulieren realer physischer Objekte digitale Informationen in einem Computer-internen Modell verändern. Oft wird dabei die Definition von Hornecker [10] verwendet, nach der ein TUI folgende Kriterien erfüllen muss: • „Tangible Manipulation“: Die Interaktion erfolgt durch das Manipulieren von greifbaren, physischen Objekten • „Spatial Interaction“: Die physischen Objekte existieren im realen dreidimensionalen Raum, die Manipulation erfolgt durch räumliche Veränderungen der Objekte

3 3D-Visualisierung und Mixed Reality

55

• „Embodied Facilitation“: Die physische Manipulation wird auf eine Interaktion mit Computer-internen Informationen abgebildet z. B. kann die physische Auswahl eines Objektes einer Selektion in einer Datenbank entsprechen. • „Expressive Representation“: Material und Form der physischen Objekte geben die Funktionalität vor, die Abbildung auf das interne Modell ist fest daran gekoppelt. Das heißt, wie bei physischen Werkzeugen sind Objekt und Funktion gekoppelt, im Gegensatz zu Interaktionsgeräten wie Maus und Touchscreen, die in unterschiedlichen Situationen mit unterschiedlichen Funktionen gekoppelt sein können.

3.5

Context Aware Interfaces (CAI)

Kontext-sensitive Schnittstellen versuchen die Interaktionen dadurch zu vereinfachen, dass dem Benutzer nur solche Informationen und Interaktionsmöglichkeiten angeboten werden, die in seinem aktuellen Nutzungs-Kontext sinnvoll sind. Neben der räumliche Umgebung kann der berücksichtigte Kontext dabei auch weitere Variablen wie die Vorlieben des Benutzers und seine aktuellen Aufgaben und Absichten berücksichtigen. Da sich die räumliche Positionierung im Vergleich zu anderen Kontext-Variablen leicht und zuverlässig bestimmen lässt, wird sie in vielen Systemen genutzt. Ein bekanntes Beispiel sind Location-Based-Services (LBS), die dem Benutzer auf seinen aktuellen Standort abgestimmte Informationen liefern und im Kontinuum von Milgram weit auf der Realitätsseite einzuordnen wären.

4

Aufbau von Mixed Reality Systemen

Abb. 4 zeigt die verschiedenen Komponenten eines Mixed Reality Systems. Eingaben und aktuelle Informationen über die Umgebung und Objekte werden von Sensoren erfasst und in ein internes Modell integriert. Wenn die Anwendung

Abb. 4 Komponenten eines MR Systems

56

V. Paelke

mit Daten aus externen Quellen arbeitet, was bei den meisten GeovisualisierungsAnwendungen der Fall ist, fließen diese externen Daten auch in ein internes Modell ein. Weiterhin kann eine Simulation Einfluss auf die internen Modelle nehmen, etwa in Virtual Reality und Simulationsanwendungen. Aus den Modellen wird im nächsten Schritt durch Rendering eine Darstellung generiert und dem Nutzer auf einem geeigneten Display präsentiert. Neben dem Rendering von graphischen Informationen, die bei den meisten Mixed Reality Anwendungen im Vordergrund steht, kann dies auch Audio Informationen oder haptische Informationen umfassen. Eine zentrale Information über die „Umgebung“ ist bei Mixed Reality Anwendungen die Position und Orientierung der aktuellen Sicht des Benutzers (die „Pose“), da diese bei Augmented Reality Anwendungen definiert, welche Zusatzinformationen angezeigt werden müssen und bei Virtual Reality Anwendungen die Nutzersicht auf die virtuelle Umgebung festlegt. Weitere Sensoren, die Informationen über spezielle Objekte bereitstellen (Position und den Zustand der entsprechenden Objekte in der Umgebung) können in Abhängigkeit von der Anwendungen notwendig sein, insbesondere bei Interaktionstechniken die auf dem Paradigma der Tangible Interaction basieren. Geeignete Sensortechnologien werden in einem Folgeabschnitt kurz vorgestellt. Umfang und Inhalt geeigneter Modelle sind stark von der Anwendung abhängig und unterscheiden sich wesentlich zwischen Augmented und Virtual Reality Anwendungen: Bei Virtual Reality Anwendungen stehen die Modelle komplett unter der Kontrolle des Entwicklers und müssen die vollständige Information beinhalten, um sowohl die graphische Darstellung zu generieren, als auch das Verhalten der virtuellen Umgebung in einer Simulation simulieren zu können. In Augmented Reality Anwendungen umfassen die Modelle zum einen eine Abbildung der Realen Umgebung, um eine Zuordnung der Information zur realen Umgebung zu ermöglichen, zum anderen die notwendige Information um die graphische Darstellung zu erzeugen. Abb. 5 zeigt die unterschiedlichen Ausprägungen eines Mixed Reality Systems als Virtual Reality (links) und Augmented Reality (rechts) Anwendungen. Während bei Virtual Reality Anwendungen die Nutzereingaben über spezielle Eingabegeräte und die Simulation einer virtuellen Welt im Vordergrund stehen, sind Information über die reale Umgebung eine zentrale Komponente in Augmented Reality Anwendungen.

5

Basistechnologien

Für die Realisierung eines MR Systems werden eine Reihe von Hard- und Software Komponenten benötigt. Im Folgenden wird speziell auf die Sensoren und Displays eingegangen, die für die Realisierung von Mixed Reality Systemen erforderlich sind. So werden etwa Sensoren zur Erfassung von Position und Orientierung des Benutzers (VR, AR), zur Erfassung der Umgebung (AR, CAI) und zur Erfassung von Objekten in der Umgebung (TUI) benötigt. Bei den Displays reicht das Spektrum von der Nutzung konventioneller 2D Displays (VR, AR, TUI, CAI) über

3 3D-Visualisierung und Mixed Reality

57

Abb. 5 Ausprägung eines Mixed Reality Systems als Virtual Reality Anwendung (oben) und Augmented Reality Anwendung (unten)

stereoskopische Displays (VR, AR, TUI, CAI) zu immersiven Displays (VR) und optical see-through Displays (AR).

5.1

Positionsbestimmung

Neben Eingabegeräten wie sie auch in herkömmlichen Benutzungsschnittstellen benutzt werden, kommt Sensoren zur Positionsbestimmung in Mixed Reality Systemen eine zentrale Bedeutung zu. So ist es in vielen Anwendungen (VR, AR) notwendig die Position und Orientierung des Kopfes des Nutzers zu kennen (Headtracking), um die darzustellenden Inhalte an diese anzupassen. Um die Genauigkeit zu steigern ist zusätzlich in einigen Fällen die Kenntnis der Blickrichtung des Nutzers hilfreich, die mit Eyetracking Verfahren bestimmt werden kann. Bei mobilen Anwendungen muss zusätzlich die Position des Nutzers bestimmt werden.

58

V. Paelke

Darüber hinaus sind für bestimmte Formen der Eingabe weitere Informationen über den Nutzer erforderlich, etwa über seine Bewegungen (Body-Tracking) und Gesten und Handbewegungen (Gestenerkennung und Fingertracking). Im Bereich der Mixed Reality wird für die kontinuierliche Bestimmung von Position und Orientierung typischerweise der Begriff des „Trackings“ (Verfolgung) verwendet. Bei der Auswahl geeigneter Verfahren sind die Zuverlässigkeit, Genauigkeit und Auflösung, Aktualisierungsrate und Latenz, sowie ggf. auch die als Voraussetzung benötigte Infrastruktur zu berücksichtigen [27]. Einen Überblick relevanter Verfahren geben Dörner et al. [4]. Von zentraler Bedeutung sind GPS für die Positionsbestimmung in OutdoorAnwendungen sowie optische Verfahren die in allen Anwendungsfeldern eingesetzt werden. Diese werden typischerweise durch Inertial-Sensoren ergänzt. Weitere Technologien, wie etwa auf Laufzeitmessungen beruhende Ultraschall Tracker, Elektromagnetische Trackingsysteme und die mechanische Erfassung werden in einzelnen Anwendungen eingesetzt. Um die für Mixed Reality Anwendungen erforderlichen Update-Raten (typischerweise >30 Hz), Latenzen (wenige ms) und Genauigkeiten zu erreichen, ist es oft erforderlich mehrere die Daten von mehreren Sensoren mit geeigneten Verfahren zu koppeln (z. B. durch Kalman Filter). Die bei weitem wichtigsten Verfahren für die praktische Entwicklung von Mixed Reality Anwendungen sind optische Trackingverfahren, da diese eine hohe Genauigkeit ermöglichen und flexibel einsetzbar sind. Bei den optischen Verfahren werden durch die Erkennung von Referenz-Objekten im Videobild die Position und Orientierung der Kamera relativ zum Referenz-Objekt bestimmt (extrinsische Kameraparameter). Dabei lassen sich grob zwei unterschiedliche Szenarien unterscheiden: In einem sog Outside-In Setup beobachten in der Umgebung fixierte Kameras das zu verfolgende (mobile) Objekt. In einem Inside-Out Setup ist die Kamera mit dem zu verfolgenden Objekt verbunden und nimmt die Umgebung auf. Typische Beispiele sind fest montierte Kameras in Virtual Reality Installationen wie CAVEs und Powerwalls, die ein Outside-In Tracking realisieren, und die Nutzung von in Datenbrillen oder Smartphones integrierten Kameras zur Inside-Out Positionierung in mobilen Augmented Reality Anwendungen. Bei den optischen Trackingverfahren sind markenbasierte und markenlose Verfahren zu unterscheiden. Markenbasierte Verfahren nutzen als Referenz spezielle, eindeutig festgelegte Marken. Abb. 6 zeigt typische Beispiele. Da die Marken

Abb. 6 Marker für optische Trackingverfahren – Links AR-Toolkit [12], Rechts Metaio [15]

3 3D-Visualisierung und Mixed Reality

59

auf eine kontrastreiche und eindeutige Erscheinung optimiert sind, können sie zuverlässig und schnell erkannt werden. Neben schwarz-weißen Marken, die auf die Nutzung mit normalen Kameras optimiert sind, werden vor allem in stationären Virtual Reality Anwendungen auch Marker und Kameras im Infrarot-Bereich eingesetzt. Dabei werden neben der Beleuchtung von passiven Reflektoren auch aktive Infrarotleuchten als Marken eingesetzt. Dem Vorteil einer zuverlässigen und schnellen Erkennung steht bei markenbasierte Verfahren der Nachteil entgegen, das die Objekte bzw. die Umgebung mit entsprechenden Marken gekennzeichnet sein müssen, was in vielen Anwendungsfeldern nicht praktikabel ist. Markenlose Verfahren arbeiten anstelle von künstlichen Marken mit der bereits in der Umgebung, bzw. auf den Objekten, vorhandenen optischen Informationen. Aus den Videobildern werden im ersten Schritt Eigenschaften (Features) extrahiert, die über mehrere Videobilder verfolgt werden und so eine Bestimmung der Bewegung ermöglichen. Weiterhin können die erkannten Features mit den in einem Umgebungs-, bzw. Objektmodell abgespeicherten Referenzfeatures abgeglichen werden, um die relative Position und Orientierung zwischen Kamera und Referenzobjekt zu bestimmen. Der Verarbeitungsaufwand ist bei markerlosen Verfahren höher und die Zuverlässigkeit hängt von den vorhandenen optischen Informationen ab. Neben reinen Bildmerkmalen werden hier zunehmend auch geometrische Informationen genutzt, die mit den von Tiefenbild-Kameras erfassten Informationen abgeglichen werden [11].

5.2

Displays

Bei den Displays gibt es teilweise große Unterschiede zwischen Virtual Reality und Augmented Reality Anwendungen. Während bei Virtual Reality Anwendungen die Immersion, also das Eintauchen des Nutzers in die virtuelle Umgebung, im Vordergrund steht, eine weitestgehende Abschottung des Nutzers von der realen Umgebung also wünschenswert erscheint, spielt die reale Umgebung bei Augmented Reality Anwendungen eine entscheidende Rolle und die zusätzlichen Informationen sollen idealerweise nahtlos in die natürliche Wahrnehmung der Umgebung integriert werden. Entsprechend reicht das Spektrum von Displays für Virtual Reality Anwendungen von stereoskopischen Displays und Projektoren, die nur einen geringen Grad an Immersion ermöglichen, aber preiswert mit handelsüblichen Geräten zu realisieren sind, bis hinzu zu speziellen Virtual Reality Umgebungen wie den CAVEs, speziellen Räumen deren Wände, Decken und Böden als Projektionsflächen ausgeführt sind. Die Nutzer in einer CAVE nehmen in allen Blickrichtungen die stereoskopische Projektion der virtuellen Umgebung wahr. CAVEs unterstützen einen hohen Grad an Immersion und sind gleichzeitig durch mehrere Nutzer nutzbar, erfordern allerdings einen hohen Installationsaufwand und sind aufgrund des hohen Preises auf wenige Installationen beschränkt. Eine Alternative für Anwendungen in denen ein hoher Immersionsgrad gefordert ist, stellen HeadMounted Displays (HMDs) dar, im Deutschen auch als Datenhelm oder Datenbrille

60

V. Paelke

Abb. 7 Immersives HMD (Occulus Rift DK2)

bezeichnet In einem HMD erzeugen miniaturisierte Displays für jedes Auge das entsprechende Bild, das dann über eine Optik in das Auge des Benutzers abgebildet wird. Entscheidend für die wahrgenommene Qualität der Darstellung in einem immersiven HMD sind das Blickfeld (Field of View, FOV) und die Auflösung, da der Nutzer nur die im Display tatsächlich dargestellten Bildinformationen sehen kann und von der weiteren Umgebung abgeschottet ist. Darüber hinaus muss in einem HMD basierten VR System großer Wert auf eine Minimierung der Latenzen gelegt werden, um Diskrepanzen zwischen der Kopfbewegung des Nutzers und den dargestellten virtuellen Inhalten zu minimieren, die zu einem als „Cyber Sickness“ bekanntem Unwohlsein führen können. Abb. 7 zeigt ein Beispiel für ein immersives HMD, die Oculus Rift DK2 [19]. Eine zentrale Herausforderung bei Augmented Reality Displays ist die Kombination von realer Umgebung mit den graphischen Zusatzinformationen. Eine Möglichkeit ist es die Zusatzinformationen direkt in die Umgebung zu projizieren, häufiger werden aber Video-see-through oder Optical-see-through Darstellungen als Kombinationsprinzipien verwendet. Bei Video-see-through Lösungen wird die aktuelle Sicht auf die Umgebung durch eine Kamera aufgenommen und dieses Bild als Hintergrundbild auf einem Display angezeigt. Die Zusatzinformationen werden dann einfach zu dem Videobild hinzugefügt. Vorteilhaft am Video-seethrough Ansatz ist, dass praktisch beliebige existierende Displays verwendet werden können. So lassen sich etwa Smartphones und Tablets direkt als Augmented Reality Displays verwenden, in dem die in die Umgebung gerichtete Kamera genutzt wird um das aktuelle Hintergrundbild zu erfassen. Auf Grund Ihrer weiten Verbreitung sind diese mobilen Geräte die am häufigsten verwendete Displaylösung für Augmented Reality Anwendungen. Auch Head-Mounted Displays aus dem VR Bereich lassen sich prinzipiell als Video-see-through Displays nutzen indem man sie um eine Kamera ergänzt. Allerdings wird in dieser Kombination besonders deutlich, dass Video-see-through Systeme den Nachteil haben dem Benutzer die reale Umgebung

3 3D-Visualisierung und Mixed Reality

61

Abb. 8 Optical-See-Through HMD (Epson Moverio BT-200)

nur in dem durch die Videoaufnahme und das Display begrenzten Blickfeld mit begrenzter Auflösung zu präsentieren. Optical-see-through Displays arbeiten hingegen mit einer optischen Kombination der direkten Sicht auf die Umgebung und den zusätzlichen Grafiken, etwa durch Strahlteiler. Der Nutzer kann damit die reale Umgebung direkt in voller Auflösung und ohne zeitliche Verzögerung wahrnehmen, was in vielen Anwendungen sowohl aus Gründen der optischen Auflösung und des Sichtwinkels, als auch aus Sicherheitsgründen (Verhalten bei Ausfall des Systems) erwünscht ist. Abb. 8 zeigt als Beispiel für ein Optical-see-through HMD die Epson Moverio BT-200 [6]. Ein Problem bei Optical-see-through Displays ist der Kontrast der Darstellung zur Umgebung. Da bei einfachen Optical-see-through Displays nur Helligkeit hinzugefügt werden kann, muss sichergestellt sein, dass die Zusatzinformation einen hinreichenden Kontrast zum Hintergrund aufweist, um sichtbar zu sein. Die Zusatzinformation hat in solchen Displays daher auf einen „Geisterbild“ Charakter. Optical-see-through Displays, die den Hintergrund an einzelnen Stellen gezielt verdunkeln oder ausblenden können befinden sich zurzeit noch im Prototypen Stadium.

6

Anwendungen von Mixed Reality Systemen für raumbezogene Informationen

Mixed Reality (MR) basierte Benutzungsschnittstellen können in vielen Anwendungsfeldern genutzt werden. Einen Überblick mit zahlreichen Beispielen aus den Bereichen Medizin, Industrielle Wartung und Montage, Robotik, Militär und Unterhaltung liefern die Veröffentlichungen von Azuma (Azuma [2] und Azuma et al. [1]) oder aktueller Ludwig und Reimann [13] und Mekni und Lemieux [14]. Gerade in der Geoinformatik gibt es in vielen Anwendungen Interaktionsaufgaben mit inhärenten Raumbezug, die von den Vorteilen einer MR basierten Schnittstelle

62

V. Paelke

Abb. 9 Laser-Scanning mit AR Visualisierung möglicher Problempunkte (rechts)

profitieren können. Im Folgenden werden beispielhaft einige Anwendungsmöglichkeiten aus diesem Bereich vorgestellt. Abb. 9 zeigt ein Augmented Reality System, bei dem die Visualisierung direkt in die reale Umgebung eingebettet wird. Bei der Erfassung von 3D Daten mit einem Laser-Scanner kann es z. B. durch räumliche Verdeckung oder unterschiedliche Oberflächen zu Problemen kommen, die oft erst bei der späteren Aufbereitung der Daten auffallen und dann eine aufwändige Nachbearbeitung oder Nacherfassung erfordern. In dem gezeigten System wird bereits während der Erfassung die Datenqualität analysiert. Basierend auf dieser Analyse werden mögliche Problempunkte identifiziert und als Augmented Reality Darstellung auf einem mobilen Endgerät (Smartphone oder Tablet) eingebettet in die reale Umgebung visualisiert. Die in die reale Umgebung eingebettete Visualisierung ermöglicht eine intuitive Überprüfung der Analyseergebnisse und unterstützt den Anwender bei der Wahl alternativer Scanner-Standorte [21]. Die in einer Augmented Reality Anwendung erweiterte Realität muss nicht die vollständige Umgebung des Benutzers umfassen, sondern kann sich auf einzelne Objekte oder Artefakte beschränken. So zeigt Abb. 10 ein Augmented Reality Assistenzsystem an einem Montagearbeitsplatz [20]. Hier wird die Augmented Reality Darstellung genutzt, um den Benutzer durch eine Montageaufgabe zu leiten. Durch AR Visualisierungen wird dabei angezeigt, welches Bauteil als nächstes zu montieren ist („Picking“) und wo dieses Bauteil montiert werden soll („Montage“). Auch in dieser Anwendung werden dem Nutzer raumbezogene Informationen direkt an der relevanten Stelle in der Umgebung angezeigt (z. B. Visualisierung des nächsten zu montierenden Bauteils), der relevante räumliche Kontext ist in diesem Fall allerdings auf den konkreten Arbeitsplatz beschränkt. Noch einen Schritt weiter gehen Augmented Reality Anwendungen wie in Abb. 11. In diesen Anwendung werden auf einer Papierkarte Zusatzinformationen überlagert. Mit der Anwendung können auf der Karte dreidimensionalen Rekonstruktionen und weitere Zusatzinformationen überlagert werden, um ein besseres Verständnis der historischen Gegebenheiten zu entwickeln. Die Erweiterung der

3 3D-Visualisierung und Mixed Reality

Abb. 10 AR Assistenzsystem für Montageaufgaben

Abb. 11 Augmentierung von Papierkarten

63

64

V. Paelke

Abb. 12 Effektive und sichere Mehrbenutzer-Interaktion durch physische Token (Tangible User Interfaces) am UseTable

Papierkarte ermöglicht es in diesem Anwendungsfall die klassische Kartendarstellung um interaktive Funktionalität und etwa die realistische 3D Darstellungen von rekonstruierten Gebäuden zu erweitern. Abb. 11 (rechts) zeigt die Nutzung für die Ausgrabung der römischen Stadt Iesso (heute Guissona, Spanien). Die Anwendung ermöglicht es z. B. Schülern bei der Vor- oder Nachbereitung eines Besuches ein besseres Verständnis für die Zusammenhänge zwischen der abstrakten Kartendarstellung, der virtuellen 3D Rekonstruktion und den realen Gegebenheiten vor Ort zu entwickeln [5]. Eine andere Form der Verknüpfung von realen und virtuellen Komponenten zeigt der UseTable in Abb. 12. Der UseTable ist ein interaktiver Tisch, der neben der Grafikdarstellung die Interaktion durch Multi-touch Gesten, Stifteingabe und die Interaktion mit (be-)greifbaren Objekten unterstützt. Abb. 12 zeigt eine auf dem UseTable implementierte Anwendung zur kollaborativen Einsatzplanung im Katastrophenschutz. Die Anwendung basiert auf der Darstellung von Karten- und Satellitendaten. Um die Möglichkeiten eines interaktiven Systems auszunutzen ist es notwendig zwischen unterschiedlichen Darstellungen und Maßstäben wechseln zu können. Im Gegensatz zur Nutzung auf Tablets und Smartphones, wo sich Wisch- und Zoom-Gesten als Standard für die Interaktion mit Karten etabliert haben, muss in diesem Anwendungsfall allerdings sichergestellt sein, dass solche Änderungen kontrolliert und nur von autorisierten Personen erfolgen. Daher wurde in diesem Anwendungsszenario die Zoom-Interaktion mit einem physisches Token verknüpft. Nur wer das Token in der Hand hält kann die Interaktion durchführen, die durch die Verknüpfung mit einem physischen Objekt auch für alle Umstehenden offensichtlich und nachvollziehbar wird [22].

7

Fazit

Neue Technologien wie mobile Geräte, neue Displays und Sensoren haben ein hohes Potenzial um die Kommunikation von Geoinformationen zu verbessern. Die unter dem Paradigma der Mixed Reality zusammengefassten Visualisierungstechnologien von der Augmented Reality bis zur Virtual Reality stellen vielversprechende

3 3D-Visualisierung und Mixed Reality

65

Möglichkeiten bereit, um räumliche Daten für die Benutzer graphisch so aufzubereiten, dass sie in einem gegebenen Anwendungskontext intuitiv, schnell und korrekt interpretiert werden können. Gerade für Benutzer die nicht keine Experten im Umgang mit Geodaten sind, ermöglichen es Mixed-Reality-Technologien die Lücke zwischen der realen Umgebung und einer abstrahierten Kartendarstellungen in einer flexibel an die Anforderungen der Nutzer angepassten Weise zu überbrücken. Bei den Basistechnologien sind deutliche technische Fortschritte insbesondere beim Tracking und bei Rendering erreicht worden, die eine Vielzahl von Anwendungen ermöglichen. Für 3D Visualisierungs- und Virtual Reality Anwendungen stehen geeignete Displays zur Verfügung und bei den stereoskopischen, immersiven HMDs zeichnet sich gerade ein Entwicklungssprung ab, der diese möglicherweise für den breiteren Einsatz interessant macht. Für Augmented Reality Anwendungen sind aktuell vor allem Video-See-Through Lösungen und projektionsbasierte Ansätze praktisch umsetzbar, während ergonomische optical-see-through HMDs für den praktischen Einsatz noch Entwicklungsbedarf aufweisen. Hinsichtlich der Darstellungstechniken lassen sich zwei Ausprägungen unterscheiden: Die Entwicklung von photo-realistischen Visualisierungen, die auf eine möglichst genaue Abbildung der Realität abzielen, hat starke Fortschritte gemacht hat und die erreichbare Qualität ist heute im Wesentlichen vom vertretbaren Modellierungsaufwand abhängig. Hingegen steht die Entwicklung von abstrahierten Darstellungen, die an kartographische Traditionen anknüpfen, noch relativ am Anfang: Zwar sind technisch nicht-photo-realistische Rendertechniken (nonphotorealistic rendering, NPR) durch die Verbreitung programmierbarer Shader einfacher umsetzbar geworden und werden im Bereich technischer Illustrationen, Cartoons und Unterhaltung auch zunehmend genutzt [8]. Bei der gezielten Entwicklung und Anwendung solcher Techniken für die visuelle Aufbereitung von Zusatzinformationen in Augmented Reality Anwendungen besteht aber noch Forschungsbedarf. Ähnliches gilt für die Aufbereitung der Inhalte. Während die Bereitstellung von dreidimensionalen Umgebungsdaten und Gebäudemodellen durch etablierte Werkzeuge aus dem Bereich der Geoinformatik zur Erfassung, Modellierung und Verwaltung effektiv unterstützt wird, ist die Erstellung von Visualisierungen für Zusatzinformationen und die Integration von interaktiven Funktionalitäten aufwändig und erfordert vielfach noch explizite Programmierung. Hier gibt es noch Bedarf an einfach zu bedienenden Werkzeugen, die auch Gelegenheitsnutzer in die Lage versetzen, an Ihre Anforderungen angepasste Inhalte zu entwickeln. Während für raumbezogenen Daten eine Vielzahl an standardisierten Formaten bereitsteht, die einen effektiven Austausch auch zwischen verschiedenen Systemen ermöglichen, hat sich für die Beschreibung von Zusatzinformationen und Interaktionsfunktionalitäten noch kein Standard etablieren können. Die in diesem Kapitel beschriebenen Arbeiten geben einen Einblick in die unterschiedliche Nutzungsmöglichkeiten von MR Techniken in Geoinformatik Anwendungen.

66

V. Paelke

Die bestehenden Entwicklungen zeigen das Potential von MR Schnittstellen für raumbezogene Anwendungen auf. Aufgrund der vielfältigen Anforderungen ist diese Forschung zwangsläufig interdisziplinär geprägt. Die Geoinformatik kann dabei wertvolle Beiträge leisten und umgekehrt in ihren Anwendungen stark von den zukünftigen Entwicklungen profitieren. Es erscheint daher sinnvoll die Forschungsaktivitäten zur Verknüpfung von MR und Geoinformatik weiter zu vertiefen. Dabei sollten insbesondere auch die Themen einer effektiven Verwaltung von MR Inhalten nach räumlichen Kriterien z. B. durch GIS Integration, deren systemunabhängige Beschreibung in standardisierten Formaten, sowie die Unterstützung der Entwicklung von MR Anwendungen durch geeignete Werkzeuge und Prozesse betrachtet werden.

Literatur 1. Azuma, R.T., Baillot, Y., Behringer, R., Feiner, S., Julier, S., MacIntyre, B.: Recent advances in augmented reality. IEEE Comput. Graph. Appl. 21(6), 34–47 (2001) 2. Azuma, R.T.: A survey of augmented reality. Presence: Teleoperators Virtual Environ 6(4), 355–385 (1997) 3. Cruz-Neira, C., Sandin, D., DeFanti, T.: Surround-screen projection-based virtual reality: The design and implementation of the CAVE. In: Proceedings of SIGGRAPH’93, S. 135–142. ACM, New York (1993) 4. Dörner, R., Broll, W., Grimm, P., Jung, B. (Hrsg.): Virtual und Augmented Reality (VR/AR), Grundlagen und Methoden der Virtuellen und Augmentierten Realität. Springer, Berlin/Heidelberg (2013) 5. Eggert, D., Hücker, D., Paelke, V.: „Augmented Reality Visualization of Archeological Data“, Cartography from Pole to Pole, Selected Contributions to the XXVIth International Conference of the ICA, S. 203–216. Springer, Berlin/New York (2014) 6. Epson Moverio: Produktwebseite. http://www.epson.de/de/de/viewcon/corporatesite/products/ mainunits/overview/12411. (2015). Zugegriffen am 27.03.2015 7. Facebook: Pressemeldung „Facebook to Acquire Oculus“. http://newsroom.fb.com/news/2014/ 03/facebook-to-acquire-oculus/. (2014). Zugegriffen am 27.03.2015 8. Geng, W.: The Algorithms and principles of non-photorealistic graphics: Artistic Rendering and Cartoon Animation. Springer, Berlin/New York (2010) 9. Heeter, C.: Being there: The subjective experience of presence. Presence: Teleoperators Virtual Environ. 1(2), 262–271 (1992) 10. Hornecker, E.: A design theme for tangible interaction: embodied facilitation. In: Proceedings of 9th European Conference on Computer Supported Cooperative Work (E-CSCW’05), Paris, S. 23–43. Kluwer/Springer (2005) 11. Kahn, S.: Reducing the gap between Augmented Reality and 3D modeling with real-time depth imaging. Virtual Real. 17(2), 111–123. Springer, London (2013) 12. Kato, H., Billinghurst, M.: Marker tracking and HMD calibration for a video-based augmented reality conferencing system. In: Proceedings of 2nd International Workshop on Augmented Reality (IWAR’99), San Francisco, S. 85–94 (1999) 13. Ludwig, C., Reimann, C.: „Augmented Reality – Information im Fokus“, C-LAB Report, 4(1), 4–15 (2005). http://www.c-lab.de/de/services-downloads/c-lab-reports/index.html 14. Mekni, M., Lemieux, A.: Augmented reality: Applications, challenges and future trends. In: Proceedings of 13th International Conference on? Applied Computer and Applied Computational Science (ACACOS’14), Kuala Lumpur (2014) 15. Metaio: Produkt webseite. http://www.metaio.com. (2015). Zugegriffen am 27.03.2015

3 3D-Visualisierung und Mixed Reality

67

16. Microsoft Hololens: Hololens webseite. http://www.microsoft.com/microsoft-hololens/en-us. (2015). Zugegriffen am 27.03.2015 17. Milgram, P., Kishino, A.: Taxonomy of mixed reality visual displays. IEICE Trans. Inf. Syst. 1321–1329, Bd E77-D No.12 (1994) 18. Milgram, P., Takemura, H., Utsumi, A., Kishino, F.: Augmented reality: A class of displays on the reality-virtuality continuum. In: Telemanipulator and Telepresence Technologies, 2351, S. 282–292. SPIE, Bellingham (1995) 19. Oculus: Oculus VR webseite. https://www.oculus.com. (2015). Zugegriffen am 27.03.2015 20. Paelke, V.: Augmented reality in the smart factory: Supporting workers in an industry 4.0. environment. In: Proceedings 2014 IEEE Emerging Technology and Factory Automation, ETFA 2014, Barcelona, S. 1–4 (2014) 21. Paelke, V., Filin, S., Eggert, D., Barnea, S.: Adaptive LIDAR scanning of historic buildings supported by augmented reality user interfaces. In: Proceedings of EuroMed 2010, Nicosia, S. 65–72 (2010) 22. Paelke, V., Nebe, K., Geiger, C., Klompmaker, F., Fischer, H.: Designing multi-modal mapbased interfaces for disaster management. In: Proceedings of ACHI 2012, Valencia, S. 95–100 (2012) 23. Qualcomm: Vuforia webseite. https://developer.qualcomm.com/mobile-development/addadvanced-features/augmented-reality-vuforia. (2015). Zugegriffen am 27.03.2015 24. Shaer, O., Hornecker, E.: Tangible user interfaces: Past, present, and future directions. In: Foundations and Trends in Human-Computer Interaction, 3(1), S. 1–137. Now Publishers, Hanover (2010) 25. Slay, H., Thomas, B., Vernik, R.: Tangible user interaction using augmented reality. Aust. Comput. Sci. Commun. 24(4), 13–20 (2002) 26. Ullmer, B., Ishii, H.: Emerging frameworks for tangible user interfaces. In: Carroll, J.M. (Hrsg.) HCI in the New Millenium, S. 579–601. Addison-Wesley (2001) 27. Welch, G., Foxlin, E.: Motion tracking: no silver bullet, but a respectable Arsenal. IEEE Comput. Graph. Appl. 22(6), 24–38 (2002)

4

Geoinformation zur Navigationsunterstützung Stephan Winter

Inhalt 1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Raumkognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Sinneswahrnehmungen und repräsentiertes Wissen . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Erfahrungen und Strategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Zwischenmenschliche Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Navigationsunterstützung mit heutigen technischen Systemen . . . . . . . . . . . . . . . . . . . . . 4 Intelligente Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Schlussfolgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70 74 74 75 76 80 82 86 86

Zusammenfassung

Orientierung im Raum und die Suche nach Wegen sind fundamentale Alltagsaufgaben des Menschen. Tatsächlich leistet das Gehirn einen Großteil dieser Aufgaben selbständig und unterbewusst, indem es auf repräsentiertes Wissen, auf Erfahrungen und Strategien (Heuristiken), und auf Sinneswahrnehmungen zugreift. Darüberhinaus hat der Mensch immer schon externes Wissen als Ergänzung gesucht und integriert. Sowohl Höhlenmalereien als auch Dialoge, Karten, Autonavigationssysteme und Mobilitätswebseiten sind solche Mittel. Dieses Kapitel wirft daher zunächst einen Blick auf die raumkognitiven Fähigkeiten

S. Winter () Department of Infrastructure Engineering, The University of Melbourne, Parkville, VIC, Australien E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_65

69

70

S. Winter

des Menschen, um dann zu fragen, welche Art von zusätzlicher räumlicher Information diese Fähigkeiten sinnvoll unterstützen kann. Aus dieser Perspektive lassen sich des Weiteren Kriterien und Methoden ableiten, wie Mensch und Maschine effektiv über Bewegung im Raum kommunizieren. Schlüsselwörter

Navigation · Raumkognition · Wegefindung · Geoinformation · Räumliche Information · Spatial information · Spatial cognition · Wayfinding

1

Einführung Navigare necesse est (Gnaeus Pompeius Magnus zugeschrieben)

Navigation ist ein altes geodätisches Problem. In indigenen Gesellschaften konnten Boten, geleitet durch Geschichten und Landmarken, ihre Wege durch unbekanntes Gebiet ber tausende Kilometer finden [6, 36]. Sogenannte Piloten1 waren auf den Entdecker- und Handelsschiffen des Mittelalters eine hochausgebildete Elite unter den seefahrenden Berufen. Sie waren dafür verantwortlich, dass das Schiff Land erreichte.2 In diesem Zusammenhang sammelten sie geographisches Wissen und zeichneten dieses auf. So entstanden die portugiesischen roteiros, geheime Logbücher, die im staatlichen Auftrag geführt wurden und einen formidablen Anteil des Staatsschatzes darstellten. Heute noch übernehmen Lotsen die sensible Navigation von Schiffen in Hafeneinfahrten, unterstützt von neuester Technik. Das Navigationsproblem zählte zu allen Zeiten zu den großen technischen Herausforderungen. Die Erfindung des Astrolabium in der Antike, des Sextanten im achtzehnten Jahrhundert (Abb. 1), und danach die Entwicklung genauer Uhren trieb die geodätische Entwicklung voran. Diese Entwicklung ist nicht stehengeblieben. Präzise Zeitmessung ist heute die Grundlage von Satellitennavigationssystemen (GNSS – Global Navigation Satellite Systems), welche wiederum, neben der Bereitstellung fundamentaler Infrastruktur für Navigation, Tracking und LocationBased Services, für immer präzisere geodätische Messungen sorgen, inklusive der Erfassung der Dynamik unserer Erde – all dies ist in anderen Kapiteln dieses Werkes dargestellt. Es gibt jedoch einen guten Grund, warum das Gebiet der Satellitennavigation sich Navigation in den Namen gesetzt hat, und nicht Position oder Geodäsie (Abb. 2). Der ökonomische Nutzen eines globalen Systems zur Unterstützung von Orientierung und Wegefindung ist beeindruckend: Er übertrifft um ein Vielfaches die enormen Kosten zur Einrichtung dieser Infrastruktur. 1 http://de.wikipedia.org/wiki/Pilot_(Seefahrt). 2 Dies

hat sich erhalten, auch wenn die letzte Verantwortung immer der Kapitän getragen hat, siehe zum Beispiel Pilotage Act 1987, http://www.legislation.gov.uk/ukpga/1987/21/part/I/ crossheading/compulsory-pilotage.

4 Geoinformation zur Navigationsunterstützung

71

Abb. 1 Ein Sextant im Einsatz (PD-user-en|BotMultichillT, modified) Abb. 2 Ein GPS Satellit des Typs III-a (public domain, United States Government)

Nach Schätzungen der GSA3 werden 2022 sieben Milliarden GNSS Empfänger in Betrieb sein. Derselbe Report sieht als treibende Kraft für diesen Zuwachs vor allem Location-Based Services, und an zweiter Stelle gleich Straßennavigation. Andere Anwendungen haben geringere Anstiegsraten: Flugverkehr, Bahnverkehr, Schiffsverkehr, Landwirtschaft und militärische Nutzung sind schon weitgehend

3 European GNSS Agency, http://www.gsa.europa.eu/sites/default/files/GNSS_Market%20Report_

2013_web.pdf.

72

S. Winter

etablierte Märkte. Bereits 2012 wurden 94 % aller GNSS Empfänger im Marktsegment der Location-Based Services verkauft. Ein Grund für die besondere Attraktion von GNSS Empfängern in mobilen Kommunikationsplatformen liegt darin, dass diese Platformen nicht nur für Location-Based Services, sondern auch in der Straßennavigation oder für andere Aufgaben eingesetzt werden können. Modelle zur Abschätzung des ökonomischen Nutzens von Navigationsunterstützung finden sich inzwischen in der Literatur [75]. Solche Modelle zeigen auf, dass dieser Nutzen weit über Zeitersparnis (,time is money‘) hinausgeht, und tatsächlich alle drei Säulen der Nachhaltigkeit betrifft: Die ökologische durch Verbrauchs- und Emissionsreduzierung, die ökonomische durch Resourcenoptimierung, und die soziale Leistungs-fähigkeit durch Mobilitätssteigerung. Trotzdem bleibt Navigation als eine natürliche menschliche Fähigkeit bestehen, die individuell ausgebildet und in gewissem Maß lernbar ist. Räumliches Denken kann trainiert werden, und manche Forscher postulieren eine isolierbare räumliche Intelligenz [22]. Sowohl Menschen als auch Tiere können sich in einer Umgebung orientieren, und zu bestimmten Zielen gerichtet Wege finden. Montello hat die folgende oft zitierte Definition von Navigation im Alltag vorgeschlagen [51]: Navigation is coordinated and goal-directed movement through the environment by organisms or intelligent machines. It involves both planning and execution of movements. (S. 257)

Er unterscheidet weiter Planung und Ausführung in Fortbewegung (locomotion) und Wegesuche (wayfinding): Locomotion is the movement of one’s body around an environment, coordinated specifically to the local or proximal surrounds–the environment that is directly accessible to or sensory and motor systems at a given moment. (S. 258/59) In contrast to locomotion, wayfinding is the goal-directed and planned movement of one’s body around an environment in an efficient way. Wayfinding requires a place goal. (S. 259)

Während also Fortbewegung ein internalisierter Prozess beruhend auf unmittelbarer Wahrnehmung ist, verlangt Wegesuche ausdrücklich Planung, und somit Information – entweder solche aus der kognitiven räumlichen Repräsentation des Navigierenden, oder von aussen zugeführte. Geoinformation zur Navigationsunterstützung ist daher in erster Linie (externe) Geoinformation zur Wegesucheunterstützung. Eine essentielle Voraussetzung zur Navigation ist Orientierung: Diese braucht Wissen über den eigenen Ort und die eigene Ausrichtung im Raum. Um die eigene Bewegung erfahrbar zu machen, aktualisieren die menschlichen Sinne ständig die eigene Orientierung [82]. Der eigene Ort wird hingegen repräsentiert und abrufbar in Bezug auf andere räumliche Objekte, sogenannte Landmarken, und durch Wegeintegration. Diese Repräsentation erfolgt also gleichzeitig relativ und absolut. Sprache verbalisiert viel öfter relative Beschreibungen als absolute (metrische) Angaben [9]. Daher scheinen (qualitative) Relationen in kognitiven räumlichen Repräsentationen leichter zugreifbar zu sein („Ich bin am Bahnhof “).

4 Geoinformation zur Navigationsunterstützung

73

Doch ohne absolute Bezüge wäre globale Orientierung nicht möglich. Deswegen kann der Mensch auch diese externalisieren – wenn auch mit Unschärfe. Ein Beispiel „Die Innenstadt ist in dieser Richtung“ enthält gleich drei Elemente von Unschärfe: die Richtungsangabe ist eine ungefähre [5, 81], das Verständnis des Wortes Innenstadt hat seine eigene Unschärfe [34, 80], und da die Innenstadt eine räumliche Ausdehnung hat, bleibt eine diskrete Richtungsangabe eine von vielen möglichen. Im Fokus dieses Beitrages steht insbesondere, wie der Mensch über Orientierung und Wegefindung mit technischen Systemen kommuniziert. Kommunikation mit Informationstechnologie beruht auf dem Verlangen eines Individuums, mit seiner physischen Umgebung zu interagieren – zum Beispiel, von einem Ort A zu einem Ort B zu gelangen. Informationstechnologie kann das Individuum darin unterstützen, indem sie Mobilität in der Umgebung beobachtet, prädiziert und optimiert, eventuell auch koordiniert. Derzeit gibt es schon eine breite Skala von Applikationen, die versprechen menschliche Aktivitäten zu unterstützen. Alltagsanwendungen auf dem Smartphone reichen von Restaurantempfehlungen über Kartendienste, die zeigen, wo das eigene Auto parkt oder welches nahe Taxi man rufen kann, bis zu Empfehlungen, heute wegen Staus einen anderen Weg zur Arbeit einzuschlagen. Aber auch bewusstere, offenkundigere Interaktion mit Informationstechnologie, wie das Auswählen und Folgen eines geführten Rundgangs durch ein Museum, die Planung der nächsten Konferenzreise, oder die Interaktion mit dem Reiseplaner von öffentlichen Verkehrsmitteln gehören zu diesen Angeboten. Neben dem Alltagsgebrauch gibt es Anwendungen in professionellen Bereichen, wie zum Beispiel die oben erwähnten Lotsendienste, oder in einem Pilotencockpit, wo Entscheidungen über Navigation in dreidimensionaler Bewegungsfreiheit getroffen werden, oder die Anwendung von augmented reality für Feuerwehrleute in einem extrem beschränkten Raum ohne Sicht. Professionelle Anwendungen verlangen Training. Im semi-professionellen Einsatz dagegen haben die Nutzer vielleicht Übung, aber keine hochspezialisierte Ausbildung, wie zum Beispiel Lastwagenfahrer mit ihren Logistiklösungen oder Sportler mit Orienteering Applikationen. Die Geoinformationstechnologie hinter diesen Applikationen beruht auf mathematischen Grundlagen wie Graphentheorie und euklidischer Geometrie. Menschliche räumliche Repräsentationen im Gehirn jedoch, und die daraus folgenden Funktionen auf diesen Repräsentationen, sind grundsätzlich verschieden von jenen in der Geoinformationstechnologie. Sie beruhen auf Sinneswahrnehmungen und Lernprozessen, die zu repräsentiertem Wissen führen oder mit solchem Wissen interagieren. Anstelle von geometrischen Algorithmen arbeitet das Gehirn assoziativ und aus Gründen der Effizienz mit Heuristiken. Als Schnittstelle zwischen Gehirn und Informationstechnologie steht verbale wie auch graphische Sprache zur Verfügung. Dieses Kapitel wirft zunächst einen Blick auf die raumkognitiven Fähigkeiten des Menschen, um dann zu fragen, welche Art von zusätzlicher räumlicher Information diese Fähigkeiten unterstützen kann. Aus dieser Perspektive lassen sich dann Kriterien und Methoden ableiten, und wie Mensch und Maschine effektiv über diese Information kommunizieren können.

74

S. Winter

2

Raumkognition

Raumkognition ist die Fähigkeit von Lebewesen, Wissen über räumliche Umgebungen zu erwerben, zu organisieren, zu revidieren und zu nutzen. Diese Funktionen ermöglichen es dem Menschen, sowohl fundamentale (automatisierte) als auch komplexe kognitive Aufgaben zu bewältigen. Montello definiert Raumkognition wie folgt ( [50], S. 14771): Spatial cognition concerns the study of knowledge and beliefs about spatial properties of objects and events in the world. Cognition is about knowledge: its acquisition, storage and retrieval, manipulation, and use by humans, nonhuman animals, and intelligent machines. Broadly construed, cognitive systems include sensation and perception, thinking, imagery, memory, learning, language, reasoning, and problem-solving. In humans, cognitive structures and processes are part of the mind, which emerges from a brain and nervous system inside of a body that exists in a social and physical world. Spatial properties include location, size, distance, direction, separation and connection, shape, pattern, and movement.

In einem weiteren Sinn – dies klingt in Montello’s Definition bereits an („the study of“) – beschäftigt sich eine Wissenschaft der Raumkognition damit, räumliche Wahrnehmung und räumliches Wissen im Menschen zu verstehen, um technische Systeme entweder ähnlich effizient zu bauen (Robotik) oder in die Lage zu versetzen, leicht verständlich mit Menschen zu kommunizieren (Mensch-MaschineInteraktion). Diese Wissenschaft setzt in verschiedenen Disziplinen an: Neurowissenschaften, Psychologie, Sprachwissenschaften, Künstlicher Intelligenz, sowie der Geoinformatik [10]. Die menschliche Fähigkeit zur Raumkognition ist komplex. Sie ist geprägt von Sinneswahrnehmungen und körperlicher Erfahrung von Umgebungen, Lernen, Erinnerung, assoziativem Denken und Schlussfolgerungen. Raumkognition verlangt einen Körper, der mit Sinnen ausgestattet ist [41,73]; sie ist kein rein logisches oder mathematisch-berechenbares Phänomen. Diese Beobachtung hat Konsequenzen für Geoinformationssysteme: Um ähnliches zu leisten, müssen auch sie sich in die Welt einlassen, wie weiter unten diskutiert werden wird.

2.1

Sinneswahrnehmungen und repräsentiertes Wissen

Raumkognitive Strukturen und Prozesse im Gehirn werden in den Neurowissenschaften untersucht. Eine am Menschen anwendbare nichtinvasive Untersuchungsmethode, die Kernspintomographie, kann allerdings nur Aktivitäten im menschlichen Gehirn beobachten, nicht die Repräsentation selbst. Daher erlaubt die Kernspintomographie nur einen indirekten Schluss auf die eigentliche Repräsentation im Gehirn. Trotzdem haben die Beobachtungen in den Neurowissenschaften jüngst eine Reihe von Einsichten ermöglicht. Das, was salopp eine kognitive Karte, in diesem Kapitel aber vorsichtiger eine kognitive Raumrepräsentation genannt wird, steht im Zusammenhang mit place cells im Hippocampus [53] und grid cells im entorhinalen Kortex [29], für deren Entdeckung der Nobelpreis 2014 verliehen wurde. Place cells hängen mit der Wiedererkennung von Orten zusammen, und

4 Geoinformation zur Navigationsunterstützung

75

grid cells hängen mit dem Abstand zwischen Orten zusammen. Im Zusammenspiel bilden sie das räumliche Gedächtnis, sowohl in Bezug auf die visuelle Erinnerung (das Was) als auch auf die räumliche Erinnerung (das Wo) [40, 45]. Sie leisten die Arbeit der Wegeplanung, in der sowohl die Sequenz von Landmarken also auch die geometrische oder relative Distanz zum Ziel eine Rolle spielen [35]. Hingegen wird die Orientierung in Bezug auf die Umgebung durch head direction cells geleistet [68]. Des Weiteren helfen andere indirekte Beobachtungen das Wissen über Raumrepräsentation im Gehirn zu verbessern. Dazu gehört die Untersuchung des menschlichen Verhaltens im Raum, die Analyse von räumlichen Beschreibungen und die Analyse des Verstehens dieser Beschreibungen. Zum Beispiel wurde gezeigt, dass die Repräsentation des Raumwissens hierarchisch angelegt ist. Ursprünglich hatten Stevens and Coupe [66] gefragt: „Was liegt weiter westlich, San Diego oder Las Vegas?“ Es zeigten sich systematische Fehleinschätzungen unter den Befragten („San Diego“), die nur durch hierarchisches Schlussfolgern erklärt werden konnten: San Diego ist in Kalifornien, Las Vegas in Nevada und Nevada ist generell östlich von Kalifornien. Eine hierarchische Ordnung räumlichen Wissens ist jedenfalls effizient (und oft auch ausreichend): Anstatt die Relationen zwischen allen möglichen Paaren von Städten einzeln zu repräsentieren, muss nur die übergeordnete Relation gespeichert werden. Weitere Versuche haben die Annahme hierarchischer Ordnungen unterstützt, indem sie ähnliche systematische Abweichungen bei Abstandsschätzungen mit Hilfe von Landmarken nachwiesen [32], oder Partitionierungen eines Raums vorgaben und nach Relationen von Objekten in diesem Raum fragten [47]. Eine vielzitierte Klassifikation von Stufen einer kognitiven Raumrepräsentation haben Siegel und White gegeben [64]. Sie beschreiben, wie Menschen über eine ihnen neue Umgebung zunächst Landmarkenwissen aufbauen (landmark knowledge, z. B. aus dem Lesen von Reiseführern, dann aus eigener Bewegung in dieser Umgebung etwas über die Reihenfolge dieser Landmarken lernen (route knowledge), und schließlich durch Verdichten und Integrieren von route knowledge Wissen über die globale Anordnung der Landmarken erwerben (survey knowledge). Verschiedene Autoren haben darauf hingewiesen, dass diese Klassifikation nicht unbedingt verlangt, auch in dieser Reihenfolge zu lernen. Zum Beispiel kann aus dem Kartenstudium direkt Konfigurationswissen erworben werden, ohne auf Landmarken- oder Routenwissen zurückzugreifen zu müssen.

2.2

Erfahrungen und Strategien

Der urbane, menschlich gestaltete Raum ist oft regelmäßig, wenn auch lokal unterschiedlich gestaltet. Zum Beispiel zeigen die Straßen von Manhattan Rasterstruktur und die Gassen von europäischen Städten des Mittelalters Radialstruktur [3, 31]. Es wurde auch darauf hingewiesen, dass bestimmte hierarchische Strukturen im Raum ökonomische Ursachen haben können [7], und damit eine gewisse kulturelle und zeitliche Universalität geniessen. Daher ist ein Wegefinder selbst in einer ihm

76

S. Winter

unbekannten Umgebung niemals ganz ohne (Erfahrungs-)Wissen unterwegs. Dieses Wissen betrifft nur die Kategorie, nicht aber die augenblickliche Situation des Reisenden, und kann daher nur Hypothesen zur Wegefindung liefern. So kann ein Wegefinder in unbekannter Umgebung Annahmen über die Richtung zur Stadtmitte, über die Ordnung von Hausnummern oder über die Abstände zwischen Dörfern machen. Diese Annahmen können sich im Einzelfall als falsch herausstellen. Aber selbst das hat ein Wegefinder bereits anderswo erfahren und wendet daher seine Annahmen mit gewisser Vorsicht an. Manche dieser Annahmen werden automatisiert, soweit sich die allgemeine, langjährige Raumerfahrung internalisieren konnte [25]. Annahmen und Heuristiken werden nicht nur zur Navigation in unbekannten Umgebungen angewandt, also zur Überbrückung fehlenden Wissens, sondern auch in teilweise oder gar vollständig4 bekannter Umgebung. So helfen Heuristiken angesichts vollständiger Ortskenntnis vor allem, die Bearbeitung des Wissens effizienter zu machen, zum Beispiel die Wegeplanung zu beschleunigen. Anstatt aufwändige Vergleiche erinnerter Straßensegmente auf ihre Länge hin anzustellen, werden häufig einfachere Entscheidungsregeln angenommen, um einen kürzesten Weg auszuwählen. Einige kognitive Heuristiken zur Wegeplanung sind: • least angle: Wegefinder wählen häufig als nächstes Routensegment dasjenige, das am nächsten zur Richtung zum Ziel liegt [33], wahrscheinlich weil geringe Richtungsabweichung Kürze suggeriert. • initial segment: Wegefinder wählen häufig eine Route, deren erstes Segment relativ gerade ist [4], wahrscheinlich weil Geradheit Kürze suggeriert. Eine solche Strategie führt insbesondere dazu, dass Hinwege anders aussehen können als Rückwege (Abb. 3). • fine to coarse: In hierarchisch repräsentierten Umgebungen planen Wegefinder häufig Routen mit detailliertem Wissen in der nahen Umgebung, und gröber zum weiter gelegenen Ziel. Ein solcher Plan wird unterwegs iterativ neu generiert, um für die unmittelbare Wegesuche jeweils detailliertes Wissen zur Verfügung zu haben. Eine solche Strategie entlastet das Gedächtnis kurzfristig von Details, die zur Zeit nicht relevant erscheinen [77].

2.3

Zwischenmenschliche Kommunikation

Auch Sprache erhellt Strukturen der Raumkognition [42]. Hier sind wir insbesondere an Fragen nach dem wo interessiert, und dem nachgeordnet an Beschreibungen des was. Navigation, mit seiner in Zeit gerichteten Bewegung, verknüpft das wo ausserdem mit dem wann. Diese Unterscheidung zwischen was und wo hilft, um die sonst lose gebrauchten Begriffe Ort (place) und Landmarke (landmark) klarer

4 Vollständigkeit

kann sich hier nur auf das zur Verfügung stehende Wegenetz beziehen.

4 Geoinformation zur Navigationsunterstützung

77

Abb. 3 (OSM (CC BY-SA), modified)

zu definieren. Ihre Rolle in kognitiven räumlichen Repräsentationen ist bereits angeklungen; in der Untersuchung von Sprache hilft dieses Rollenverständnis: We call any meaningful spatial configuration, be it real or imagined, of shared experiences and affordances a place.

Diese Definition referenziert auf affordance theory [24, 37, 71], und damit auf Dinge, die im Verhältnis zum menschlichen Körper als Funktion erfahren werden. Hier geht es nicht um das wo, sondern um das was. Solch ein erfahrungsbezogenes Verständnis schließt zum Beispiel den Ort eines Nukleotids in einer Genomsequenz aus, und einen Ort wie zu Hause ein. Aber auch imaginäre Orte wie das Paradies und fiktive Orte wie eine literarisch beschriebene städtische Atmosphäre sind eingeschlossen. We call every identifiable feature in a mental representation that is anchored to a location a landmark.

Landmarken dienen also der Verortung (wo). Ein solches Verständnis rührt aus dem Gebrauch von Landmarken in menschlicher Sprache: In Ortsbeschreibungen, die

78

S. Winter

häufig der Struktur Locatum – Relation – Relatum folgen, hat das Relatum diese Funktion eines Ankers zur Lokalisierung [74]. Ein Beispiel für eine solche Ortsbeschreibung ist: „Ich stehe vor dem Bahnhof“. Die Person ist das zu lokalisierende Objekt (Locatum), die Relation „vor“ bindet es an ein Relatum, und dieses Relatum formt den Anker für die Lokalisierung: Der Sprecher erwartet, dass der Ort des Bahnhofs bekannt ist, wohingegen jede andere funktionale Tönung des Objekts Bahnhof hier in den Hintergrund tritt. Lynch hat Objekte mit der Funktion des Verankerns als eine von fünf fundamentalen Kategorien von Objekten in Skizzen identifiziert, und sie landmarks genannt [44]. Geographische Objekte können also beides sein, Ort und Landmarke, je nach ihrer Rolle im Sprachgebrauch. Zum Beispiel ist die Champs-Élysées, wie sie in Wikipedia beschrieben wird, ein Ort, der einlädt (funktionale Tönung) zum Einkaufen, Kino- und Cafébesuch. Durch ihre Prominenz ist sie aber ebenfalls nützlich als Landmarke, wie zum Beispiel in der Beschreibung „das Marriott an der Avenue des Champs-Élysées“. Hier fungiert sie als das verankernde Relatum eines geographischen Objekts namens Marriott. Mit diesen Konzepten können nun Ortsbeschreibungen studiert werden [62]. Wie sich allerdings bald herausstellt, sind Ortsbeschreibungen kontextabhängig. Zum Beispiel ist die Antwort auf die Frage „Wo treffen wir uns?“ abhängig vom Ort, an dem die Konversation staffindet: A: Wo treffen wir uns? B: In Paris | Im Louvre | Bei der Mona Lisa.

Wenn die Konversationspartner sich gerade nicht in Paris aufhalten, könnte die Antwort „In Paris“ lauten. Falls sie sich aber in Paris aufhalten, würde eine feinere räumliche Granularität eher nützlich sein („Im Louvre“, und wären sie bereits im Louvre, „Bei der Mona Lisa“). Granularität ist jedoch eng verknüpft mit Ambiguität. Um diese Ambiguität einzuschränken, werden viele wo und wann Fragen durch granulare Vergrößerungs- oder Verkleinerungsstrategien beantwortet [55, 58]: B: Im Louvre, bei der Mona Lisa (verkleinern) C: Musée du Louvre, 75058 Paris, France (vergrößern).

Genauso ist die Frage nach dem wann kontextabhängig: A: Wann musst du am Flughafen sein? B: Mein Flug geht um 16 Uhr | Am Mittag | Gegen eins.

Auch hier spielt Granularität eine Rolle: A: Wann beginnt die Konferenz? B: Nächste Woche | Am Dienstag | Um 8 Uhr | Dienstag morgen, um 8 Uhr (verkleinern)

Kontext bleibt ein offenes, formal nicht vollständig erfassbares Konzept. Im Zusammenhang mit Navigationsunterstützung gehören mindestens Ort und Zeit des Navigierenden, der Mobilitätsmodus des Navigierenden, und das räumliche Wissen

4 Geoinformation zur Navigationsunterstützung

79

des Navigierenden dazu. Einige weitere essentielle Parameter sind dessen Sprache, Präferenzen, und derzeitige oder angestrebte Aktivität (der Zweck des Navigierens). Einen systematischeren, aber domänenunabhängigen Ansatz zur Spezifizierung von Kontext findet man hier [38]. Unterstützende Beobachtungen lassen sich in Dialogen über Wegebeschreibungen [39] finden: Starke Präferenz für Landmarken gegenüber geometrischen Beschreibungen [11, 48], und starke Kontextabhängigkeit. Zum Beispiel kann sich auf der Straße folgender Dialog entwickeln: A: Entschuldigen Sie, können Sie mir den Weg zum Bahnhof sagen? B: Zum Bahnhof . . . : Da gehen sie geradeaus, bis zur zweiten Ampel, und dann links. A: Vielen Dank.

Die Sequenz „Weg (Locatum) zum (Relation) Bahnhof (Relatum)“ folgt der Struktur einer Ortsbeschreibung; der (noch unspezifizierte) Weg als Ort, begrenzt von einer Landmarke. Ebenso wird „Ampel“ als verankerndes Relatum benutzt. Das Locatum ist in diesem Fall eine implizierbare Aktion, nämlich ein Abbiegen. Die Kontextabhängigkeit folgt aus den oben genannten Aspekten von Kontext: Der Informationssuchende ist ein Fussgänger, sehtüchtig, der Weg hat für einen Fussgänger eine zumutbare Länge, und der Weg wird vom Informationsgeber für einfach genug gehalten, um seiner Beschreibung nicht mehr Detail zuzufügen. Denis und Mitarbeiter haben die Rolle und die Präferenz für Landmarken in Wegebeschreibungen ausführlich dokumentiert [9, 11, 18, 48, 69]. Landmarken dienen in erster Linie als Anker für Richtungsänderungen, können aber auch redundant zur Unterstützung benützt werden. In beiden Fällen liegen die Landmarken am Weg. Darüberhinaus können Landmarken auch für die globale Orientierung herangezogen werden. Signifikante geographische Objekte werden in der Kommunikation über Wege häufig mit Namen genannt. Anstatt Orte oder Landmarken umständlich über ihre Eigenschaften oder Nachbarschaftsbeziehungen beschreiben zu müssen, hilft ein Name zur schnellen Identifikation in einer Kommunikationssituation. Geographische Namen stellen eine zu Karten duale Repräsentation von Geoinformation dar. Atlanten, als klassisches Beispiel, bestehen aus einem Kartenteil und einem geographischen Namensverzeichnis. Karten enthalten Text, die geographische Namen enthalten, und das Namensverzeichnis dient als Kartenindex. Moderne geographische Namensverzeichnisse, gazetteers, verzeichnen häufig zu einem Namen gebräuchliche Synonyme, den Typ des Objekts nach einer vorgegebenen Taxonomie, sein übergeordnetes Objekt und eine Lokalisierung in einem räumlichen Referenzsystem [30]. Abb. 4 zeigt zum Beispiel den Eintrag für die Avenue des Champs-Élysées in geonames.org. Namen taugen in der Kommunikation zur Navigationsunterstützung nur, wenn sie entweder zwischen Informationsgeber und Informationssucher geteilt werden, oder wenn der Informationsgeber voraussetzen kann, dass der Informationssucher den Namen in der Umgebung findet. Letzteres begründet, warum in manchen Ländern häufiger als anderswo Straßennamen verwendet werden: nämlich dort, wo sie für den Autofahrer sichtbar im Straßenraum angebracht werden.

80

S. Winter

Abb. 4 Der Eintrag für Champs-Élysées in geonames.org

Geographische Namen sind oft nicht eindeutig, sondern werden mehrfach verwendet. Wieder ist es der Kontext, der die Auflösung erlaubt: Für eine Wegeinformation in Hamburg ist „Altona“ eindeutig genug, auch wenn geonames.org 95 Einträge dieses Namens hat. Allerdings gibt es selbst im Hamburger Kontext unterschiedliche Interpretationen: Der Bahnreisende assoziiert mit Altona den Bahnhof dieses Namens, der umziehende Bürger kennt einen Stadtteil dieses Namens, und der Tourist, die Große Freiheit suchend, wird erstaunt feststellen, dass sie nicht (mehr) in Altona liegt. Eine Erfassung und Repräsentation dieses Aspekts von Kontext ist durch Kontrastmengen möglich [80]. So würde die erste Bedeutung von Altona spezifiziert durch „Altona, nicht Hauptbahnhof und auch nicht Dammtor“. Jedenfalls sind geographische Namen unergiebig in Bezug auf die räumliche Ausdehnung der bezeichneten Orte und Landmarken.5 Die menschliche Kognition scheint für Zwecke der Wegefindung ohne explizite Repräsentation dieser Ausdehnung auszukommen.

3

Navigationsunterstützung mit heutigen technischen Systemen

Technische Systeme sind in manchen Eigenschaften dem menschlichen Intellekt überlegen. In Bezug auf Navigation bauen sie auf mathematischen Grundlagen wie Graphentheorie und Optimierung auf [49]. Solche Grundlagen garantieren, dass Algorithmen auf statischen Netzen stets die in Bezug auf eine beliebige Kostenfunktion optimalen Wege liefern [12]. Eine solche Kostenfunktion kann zum Beispiel die Distanz sein, die Reisezeit, oder auch die ,Einfachheit‘ der Route [15, 46]. Technisch können auch mehrere Kostenfunktionen gleichzeitig optimiert werden. Fortgeschrittene Optimierungen solcher Algorithmen finden kürzeste Wege in Bruchteilen von Sekunden auch in größten Netzwerken, zum Beispiel quer durch Länder oder Kontinente [26]. Allerdings sind Verkehrsnetze heutzutage kaum 5 Abgesehen

davon sind viele geographischen Objekte schwer in ihrer räumlichen Ausdehnung beschreibbar [65], aber das ist hier eine Nebendiskussion.

4 Geoinformation zur Navigationsunterstützung

81

statisch: Fahrzeiten entlang bestimmter Straßen können über den Verlauf eines Tages oder einer Woche variieren. Auch hier können technische Systeme helfen. Aus Langzeitbeobachtungen können (wahrscheinliche) dynamische Kostenmodelle aufgestellt und in dynamischer Wegesuche berücksichtigt werden [54, 56]. Zuverlässiger werden optimale Wege berechnet, wenn technische Systeme in die Umgebung eingebettet sind. Vernetzte Sensoren im Straßenraum oder in Fahrzeugen erlauben Echtzeitbeobachtungen des Verkehrs, so dass Algorithmen zur Stauumfahrung eingesetzt werden können. Letzteres ist verwandt mit der Optimierung des Verkehrsflusses [8], ein im Ende noch ungelöstes und komplexes Problem, da hinter dem Steuer immer (noch) ein Mensch sitzt, der sich ohne Vorankündigung in den Verkehr begibt und unerwartete Entscheidungen treffen kann. Auch Menschen versuchen, ihren Bewegungsaufwand zu minimieren, können aber allein durch Überlegung eine optimale Lösung des Problems nicht sicherstellen. Ihnen fehlt dazu (1) die vollständige und zeitnahe Kenntnis des Reisenetzwerkes, (2) das quantitative Detailwissen einer jeden Kostenfunktion, und (3) die Klarheit über eine Kostenfunktion. Simulationen wie MATSim modellieren diese fehlende Klarheit durch iteratives Routenplanen bis zum Erreichen eines (quasi) Paretooptimums [57], was ungefähr dem menschlichen Ausprobieren und Erlernen kürzester Wege entspricht. Auf der anderen Seite haben Menschen Fähigkeiten, die sich heute nur schwer auf technische Systeme übertragen lassen. Diese liegen in Abstraktion und Kommunikation von Geoinformation zur Navigationsunterstützung. Orts-, Wege- oder Zielbeschreibungen, wie sie unter Menschen ausgetauscht werden, sind für technische Systeme nur schwer zu entschlüsseln oder zu generieren. Während es Menschen leicht fällt, durch Abstraktion Skizzen zu produzieren oder zu interpretieren, sind erste Algorithmen zum Generieren von Wegeskizzen erst in fortgeschrittenen technischen Systemen aufgetaucht [1, 2]. Frühere Navigationssysteme benutzten kartographische Darstellungen zur Kommunikation. Skizzen als Eingabemedium haben allerdings bisher nur in den Wissenschaften Interesse gefunden [17]. Dagegen gewinnt natürliche Sprache als Eingabe- und Ausgabemedium zu technischen Systemen an Interesse. Aber auch hier wird Geoinformation der besonderen Struktur menschlicher Raumkognition nicht gerecht. Wer heute „Cafés in der Nähe der Bibliothek“ sucht, bemerkt schnell die fragwürdige Interpretation von „in der Nähe“ gängiger Suchmaschinen [72], und wer „zur Kirche auf der andern Seite des Flussufers“ möchte, überschreitet die Grenzen heutiger (kommerzieller) technischer Systeme. Insbesondere die Erfassung eines Konversationskontextes, wie hier zum Beispiel die Identifizierung eines Flusses, die Rekonstruktion des anderen Ufers, eine implizite geographische Einschränkung auf eine Region gegenüber des Orts des Sprechers, eventuell die Sichtbarkeit von Kirchen, die Gestik oder Blickrichtung der Sprecherin, deren wahrscheinliches Konzept von Kirche, und ähnliches mehr, bewältigt eine Person als Konversationspartner nahezu intuitiv, während gegenwärtigen kommerziellen Systemen fortgeschrittene Konzepte von Geosemantik, qualitativen räumlichen Relationen und Referenzsystemen, und Konzepte von Kontext fehlen.

82

4

S. Winter

Intelligente Systeme

Umgangssprachlich bezeichnet man technische Systeme als intelligent, wenn sie einen gewissen Grad an Autonomie erreicht haben. In der Künstlichen Intelligenz dagegen, auf einen Vorschlag Turings zurückgehend, bezeichnet man ein technisches System als intelligent, wenn es ein Kommunikationsverhalten zeigt, das von dem des Menschen nicht mehr unterschieden werden kann [70, 79]. Eine solche Definition lässt eine Unterscheidung zwischen dem Kommunikationsverhalten an der Oberfläche und einer technischen Realisierung darunter zu, die durchaus nicht nach menschlich-kognitivem Vorbild gebaut sein muss [61]. Diese Unterscheidung ist hier relevant, da Geoinformation nach fundamental anderen Prinzipien modelliert, gespeichert und analysiert wird als dies menschliche Kognition mit räumlichem Wissen tut. Um ein solches vom Menschen nicht zu unterscheidendes Kommunikationsverhalten zu erreichen, beschäftigt sich Künstliche Intelligenz mit dem Verstehen und Generieren natürlicher Sprache, der Wissensrepräsentation und dem automatischen Schließen, der Perzeption, dem Lernen und dem Planen. Mit Bezug auf Geoinformation zur Navigationsunterstützung soll dies nun genauer spezifiziert werden. Hierzu lehnen wir uns an das klassische semiotische Dreieck an, das die Beziehung zwischen Symbol, Referent und Gedanke darstellt [52]. Abb. 5 stellt ein menschliches Individuum (,Gedanke‘) und ein technisches System (,Symbol‘) in ein semiotisches Dreieck mit der Umwelt (,Referent‘) und zeigt damit die kybernetische Eigenschaft von Rückkoppelung in einem geschlossenen Regelkreis [78]: Die navigationsunterstützende Information, die eine Person über eine Umgebung erhält, führt zur Interaktion mit dieser Welt (Navigation), und damit zu ihrer Änderung – mindestens zu einer Positionsveränderung dieser Person. Abb. 5 zeigt, wie eine Person einen Weg sucht: Sie hat Vorwissen über die Welt, entweder besonderes durch früheres Explorieren und Lernen, oder allgemeines durch Erfahrung mit ähnlichen Umgebungen. Ausserdem nimmt diese Person die Welt mit allen Sinnen wahr, und als Teil dieser Welt auch die eingebettete Information zur Navigationsunterstützung. Solche Information kann vielfältige Formen haben. Sie kann in der Gestaltung der Umwelt liegen, die bestimmte Handlungen nahelegt (funktionale Tönung [71] oder affordance [23]), aber auch in hinterlegten Zeichen wie Straßenschildern oder montierten Übersichtsplänen. Und schließlich kann sie virtueller Natur sein, gezeigt auf Displays mobiler Endgeräte oder verbal kommuniziert durch ein Sprachinterface. Virtuelle Informationskanäle ermöglichen den Zugriff auf Echtzeitinformation, und unabhängig davon auch auf allgegenwärtige ortsbezogene und weiter kontext-spezifische Information. Diese Person interagiert sowohl mit der Umgebung, weitgehend durch Fortbewegung, ohne oder mit technischen Hilfsmitteln auf der Suche nach einem Ort oder Zustand, als auch mit dem Informationsgerät, auf der Suche nach Information. Für diese Person sind Umgebung und Information Einflüsse von außen [76]. Aus der Sicht eines intelligenten Agenten – eines technischen Systems, das virtuelle Information in einer Weise bereitstellt, die von der Person einfach verstanden und umgesetzt werden kann – sind Person und Umgebung Faktoren, die es

4 Geoinformation zur Navigationsunterstützung

83

Abb. 5 Konvergenz in der Beziehung zwischen physischer Umgebung, virtueller Information, und einer Person, die mit beidem interagiert

gleichzeitig zu beobachten gilt. Aus der Beobachtung einer dynamischen Umwelt kann ein Agent Echtzeitinformation anbieten, und aus der Beobachtung einer Person kann dieser Agent dessen Kontext erschließen – insbesondere Orts- und Zeitbezug. Daraus abgeleitet kann ein Agent aktiv in die Umgebung eingreifen, zum Beispiel durch Ampelbeeinflussung oder Platzreservierung im Zug, und ebenso aktiv mit der Person kommunizieren, zum Beispiel durch Dialog und Handlungsaufforderungen. Alle drei Knoten in Abb. 5 haben zu verschiedenem Grad Eigenautonomie oder Eigendynamik: • Eine Person hat Intentionen und entwickelt Verhalten auch unabhängig von ihrer Umgebung und der zugreifbaren Information. • Die Umgebung hingegen verändert sich unabhängig vom Menschen oder von kontrollierenden technischen Systemen und ist deshalb jedem observierenden System voraus. • Ein technisches System kann heutzutage nicht nur selbstregulierend, sondern auch lernfähig sein; in der Zukunft wird es in der Lage sein, eigenständig zu Fragen stellen und sie zu beantworten zu suchen. Dieses Beziehungsdreieck illustriert, wie untrennbar Information und Aktion zusammenhängen. Information wird mit den Sinnen des Körpers aufgenommen, und zählt daher zu den verkörperten, gegenständlichen Wahrnehmungen wie eine Raumerfahrung von Distanz oder Drehwinkel. Eine Karte in die Hand zu nehmen oder den Screen eines Smartphones zu bedienen, bereitet taktile und visuelle Sinneserfahrungen mit physischen Objekten. Allerdings referenziert Rauminfor-

84

S. Winter

Abb. 6 Information kann durch Mensch oder Maschine vermittelt werden

mation auf die Umgebung, und daher vermittelt Rauminformation nur indirekt Raumerfahrung über Ausdehnungen und Richtungen, über rämliche Beziehungen zwischen kartierten Objekten, über Fortbewegung oder über das Sinneserleben eines Ortes. Das Lesen einer Karte vermittelt einen Eindruck über Distanz, der kognitiv mit dem körperlichen Erleben des Abwanderns oder Abfahrens dieser Distanz verglichen werden kann. Bisher haben wir angenommen, dass die Information in Abb. 5 von einem technischen System beigetragen wird. Tatsächlich kann Geoinformation zur Navigationsunterstützung auch durch eine andere Person beigetragen werden (Abb. 6). Schon früher wurde die Auskunft durch einen Menschen und die Auskunft durch ein technisches System mit einander verglichen. Routenplaner der ersten Generation zeigten Karten, solche der zweiten Generation sequentielle Symbole zur Richtung, und Routenplaner der dritten Generation begannen, natürliche Sprache und Ansätze zum Gruppieren, Schematisieren und Beziehen auf andere kartierte Objekte einzuführen. Gibt es also schon intelligente Systeme? Um das festzustellen, wurde von mir ein eingeschränkter Turingtest vorgeschlagen, der sich auf Geoinformation zur Navigationsunterstützung beschränkt [79]. Andererseits sind selbst eingeschränkte Turingtests als Indikatoren für Intelligenz kritisiert worden [19,20,63] und alternative Formen vorgeschlagen worden [43]. Folgende Kritikpunkte sind hier relevant: • Der Kontext einer Konversation ist schwer zu fassen. Während ein Mensch aus einer Kommunikationssituation intuitiv auf den Kontext eingeht, ist es für ein technisches System schwierig, diesen Kontext zu spezifizieren und geeignet darauf einzugehen. • Menschen – mit ihnen wird im Turingtest verglichen – zeigen (1) im Kommunizieren über Raum unterschiedliche Fähigkeiten und (2) bekannte kognitive

4 Geoinformation zur Navigationsunterstützung

85

Verzerrungen in ihren räumlichen Repräsentationen. Es macht keinen Sinn, technische Systeme zu bauen, die solches Verhalten reflektieren. Daher muss das Ziel intelligenter Systeme sein, den Menschen zu unterstützen, nicht ihn zu kopieren. In einem Artikel Moving beyond the Turing Test schreibt French ( [21], S. 74): In the past decade, however, significant innovation in computer technology and data capture have brought the Turing Test back into focus. That technology, along with vast information resources that became available at the same time, have potentially brought computers closer than ever to passing the test. But, in spite of these developments, the Turing Test still presents significant hurdles, including some unrelated to machine intelligence. Questions based on largely irrelevant aspects of humans physiognomy, quirks in their visual, auditory, or tactile systems, and time required to complete various cognitive tasks can be devised to trip up a computer that has not lived life as we humans have with bodies like our own. [. . . ] Building machines that would never pass a Turing Test, but that can interact with humans in a highly meaningful, informative way, is the way forward in AI.

Aus der Diskussion des Turingtests können zwei wichtige Bestimmungsstücke eines intelligenten Systems für die kognitive Unterstützung der menschlichen Navigation gewonnen werden: • Intelligente Systeme müssen fähig sein, mit Menschen in kognitiv effizienter Weise zu interagieren. Das heißt, sie sollen situationsgebundenes Sprechen über Raum und Zeit verstehen. Dafür müssen sie mit Hilfe von kognitiven Konzepten kommunizieren, wobei Konzepte wie Salienz und Relevanz besondere Bedeutung besitzen. Insofern sind intelligente Systeme pragmatisch. • Intelligente Systeme müssen kontextsensibel sein. Das heißt, technisch integrieren sie heterogene (Sensor-)Datenströme einschließlich deep (machine) learning aus georeferenzierter Bildinformation über die Umgebung. Damit wird der Aufbau von deep maps ermöglicht: Technischer Raumrepräsentationen, die kognitive räumliche Repräsentationen interpretieren und wiedergeben können und dazu reich an Semantik sind. Weder Personen als Kommunikationpartner, noch technische Systeme haben vollständig korrektes Wissen über die Welt. Daher müssen beide in der Lage sein, Inkonsistenzen zwischen Informationen und der Welt, wie sie ist, auszugleichen. Daher soll abschließend nochmals auf Abb. 6 Bezug genommen werden. Diese zeigt einen weiteren wichtigen Aspekt intelligenter technischer Systeme: Die Kommunikation über die Welt zeigt Eigenschaften verteilter Systeme [67]. Sie greifen auf verschiedene Datenbanken oder Datenströme zu, wie zum Beispiel Echtzeitfahrpläne des öffentlichen Transports und Umweltsensoren zur Verkehrssituation auf der Straße, und müssen diese verknüpfen. Um dies intelligent zu tun, braucht es Theorien der Semantik, semantisch angereicherte Datenbanken und Methoden, diese Datenbanken über semantische Ähnlichkeiten abzugleichen [60]. Zugang zu Sensoren ist ein Merkmal intelligenter technischer Systeme, da sie den jeweiligen menschlichen Kontext erschließen helfen.

86

5

S. Winter

Schlussfolgerungen

Um die Navigation im Alltag zu unterstützen, braucht die Geoinformatik Konzepte, die in heutigen Geoinformationssystemen noch fehlen. Dies sind vor allem Konzepte für Orte und Landmarken, Konzepte für deren Beziehungen untereinander und für deren Beziehungen zu den Informationssuchenden. Allererste Schritte, Orte zu formalisieren, finden sich in gegenwärtiger Literatur [27]. Zu Landmarken, ihrer Erfassung und ihrer Integration in Wegebeschreibungen, hat es schon reichere Forschung gegeben [59]. Ansätze zur Erfassung beruhen auf der lokalen Salienz von Landmarken. Hierzu wurden modellbasierte, lernbasierte, und crowdbasierte Lösungen vorgeschlagen, um die in ihrer Umgebung herausstechenden geographischen Objekte zu identifizieren. Ein alternativer Vorschlag implementierte Regeln über Kategorien von Objekten [16]. Desweiteren braucht ein intelligentes System zur Navigationsunterstützung Zugang zum Kontext des Informationssuchenden. Zur Erfassung dieses Kontexts müssen sich Geoinformationssyteme ,auf die Welt einlassen‘ – was die Künstliche Intelligenz embodied interaction [14] oder context aware computing [13] nennt. Vernetzte mobile computing and sensing Platformen in den Händen der Informationssuchenden und die in Zukunft noch anwachsende Datenflut durch die überall verteilten Sensoren des Internet of Things [28] benötigen intelligente Analytik, um der wachsenden Komplexität der Kommunikationssituationen gerecht werden zu knnen. In nicht zu ferner Zukunft wird ein selbstfahrendes Auto vor unseren Türen stehen, das nach dem Anschalten nur noch über Sprache gesteuert werden wird. Nur wenn die beschriebenen Bedingungen erfüllt werden, wird es möglich sein, mit diesem Auto wie mit einem Taxifahrer über Wege und Ziele einer Fahrt zu sprechen.

Literatur 1. Agrawala, M., Stolte, C.: A design and implementation for effective computer-generated route maps. In: Butz, A., Krger, A., Olivier, P. (Hrsg.) AAAI Symposium on Smart Graphics, Stanford, S. 61–65. AAAI Press (2000) 2. Agrawala, M., Stolte, C.: Rendering effective route maps: improving usability through generalization. In: SIGGRAPH 2001, Los Angeles, S. 241–250. ACM (2001) 3. Alexander, C., Ishikawa, S., Silverstein, M.: A Pattern Language: Towns, Buildings, Construction. Oxford University Press, Oxford (1977) 4. Bailenson, J.N., Shum, M.S., Uttal, D.H.: The initial segment strategy: A heuristic for route selection. Mem. Cogn. 28(2), 306–318 (2000) 5. Bell, S., Saucier, D.: Relationship among environmental pointing accuracy, mental rotation, sex, and hormones. Env. Behav. 36(2), 251–265 (2004) 6. Chatwin, B.: The Songlines. Viking Penguin Inc., New York (1987) 7. Christaller, W.: Die zentralen Orte in Süddeutschland. Gustav Fischer, Jena (1933) 8. Dantzig, G.B., Ramser, J.H.: The truck dispatching problem. Manag. Sci. 6(1), 80–91 (1959) 9. Denis, M.: The description of routes: A cognitive approach to the production of spatial discourse. Curr. Psychol. Cogn. 16(4), 409–458 (1997)

4 Geoinformation zur Navigationsunterstützung

87

10. Denis, M., Loomis, J.M.: Perspectives on human spatial cognition: memory, navigation and environmental learning. Psychol. Res. 71, 235–239 (2006) 11. Denis, M., Michon, P.E., Tom, A.: Assisting pedestrian wayfinding in urban settings: why references to landmarks are crucial in direction-giving. In: Allen, G.L. (Hrsg.) Applied Spatial Cognition: From Research to Cognitive Technology, S. 25–51. Lawrence Erlbaum Associates, Mahwah (2007) 12. Dijkstra, E.W.: A note on two problems in connexion with graphs. Numerische Mathematik 1, 269–271 (1959) 13. Dourish, P.: Seeking a foundation for context-aware computing. Hum.-Comput. Interact. 16(2), 229–241 (2001) 14. Dourish, P.: Where the Action Is: The Foundations of Embodied Interaction. The MIT Press, Cambridge (2001). Tangible bits, social computing, embodiment, embodied interaction 15. Duckham, M., Kulik, L.: „simplest paths“: Automated route selection for navigation. In: Kuhn, W., Worboys, M., Timpf, S. (Hrsg.) Spatial Information Theory. Lecture Notes in Computer Science, Bd. 2825, S. 169–185. Springer, Berlin (2003) 16. Duckham, M., Winter, S., Robinson, M.: Including landmarks in routing instructions. J. Locat.Based Serv. 4(1), 28–52 (2010) 17. Egenhofer, M.J.: Query processing in spatial-query-by-sketch. J. Vis. Lang. Comput. 8(4), 403–424 (1997) 18. Fontaine, S., Denis, M.: The production of route instructions in underground and urban environments. In: Freksa, C., Mark, D.M. (Hrsg.) Spatial Information Theory. Lecture Notes in Computer Science, Bd. 1661, S. 83–94. Springer, Berlin (1999) 19. French, R.M.: Subcognition and the limits of the Turing test. Mind 99(393), 53–65 (1990) 20. French, R.M.: The Turing test: The first fifty years. Trends Cogn. Sci. 4(3), 115–121 (2000) 21. French, R.M.: Moving beyond the Turing test. Commun. ACM 55(12), 74–77 (2012) 22. Gardner, H.: Frames of Mind: The Theory of Multiple Intelligences, EBL, Bd. 3. Basic Books, New York (2011) 23. Gibson, J.J.: The theory of affordances. In: Shaw, R., Bransford, J. (Hrsg.) Perceiving, Acting, and Knowing, S. 67–82. Lawrence Erlbaum Associates, Hillsdale (1977) 24. Gibson, J.J.: The Ecological Approach to Visual Perception. Houghton Mifflin Company, Boston (1979) 25. Gigerenzer, G., Todd, P.M., Group, A.R.: Simple Heuristics That Make Us Smart. Evolution and Cognition. Oxford University Press, New York (1999) 26. Goldberg, A.V., Kaplan, H., Werneck, R.F.: Reach for A∗ : Efficient point-to-point shortest path algorithms. In: Raman, R., Stallmann, M.F. (Hrsg.) Eighth Workshop on Algorithm Engineering and Experiments (ALENEX), S. 129–143. SIAM, Miami (2006) 27. Goodchild, M.F.: Formalizing place in geographical information systems. In: Burton, L.M., Kemp, S.P., Leung, M.C., Matthews, S.A., Takeuchi, D.T. (Hrsg.) Communities, Neighborhoods, and Health: Expanding the Boundaries of Place, S. 21–35. Springer, New York (2011) 28. Gubbi, J., Buyya, R., Marusic, S., Palaniswami, M.: Internet of things (IoT): A vision, architectural elements, and future directions. Future Gener. Comput. Syst. 29(7), 1645–1660 (2013) 29. Hafting, T., Fyhn, M., Molden, S., Moser, M.B., Moser, E.I.: Microstructure of a spatial map in the entorhinal cortex. Nature 436(7052), 801–806 (2005) 30. Hill, L.L.: Georeferencing: The Geographic Associations of Information. Digital Libraries and Electronic Publishing. The MIT Press, Cambridge (2006) 31. Hillier, B., Hanson, J.: The Social Logic of Space. Cambridge University Press, Cambridge (1984) 32. Hirtle, S.C., Jonides, J.: Evidence of hierarchies in cognitive maps. Mem. Cogn. 13(3), 208–217 (1985) 33. Hochmair, H.: Investigating the effectiveness of the least-angle strategy for wayfinding in unknown street networks. Environ. Plan. B: Plan. Des. 32(5), 673–691 (2005) 34. Hollenstein, L., Purves, R.: Exploring place through user-generated content: Using flickr to describe city cores. J. Spat. Inf. Sci. 1(1), 21–48 (2010)

88

S. Winter

35. Howard, L., Javadi, A., Yu, Y., Mill, R., Morrison, L., Knight, R., Loftus, M., Staskute, L., Spiers, H.: The hippocampus and entorhinal cortex encode the path and euclidean distances to goals during navigation. Curr. Biol. 24(12), 1331–1340 (2014) 36. Hutchins, E.: Cognition in the Wild. The MIT Press, Cambridge (1995) 37. Jordan, T., Raubal, M., Gartrell, B., Egenhofer, M.J.: An affordance-based model of place in GIS. In: Poiker, T.K., Chrisman, N. (Hrsg.) 8th International Symposium on Spatial Data Handling, Burnaby, S. 98–109. IGU (1998) 38. Kaptelinin, V., Nardi, B., Macaulay, C.: The activity checklist: A tool for representing the „space“ of context. Interactions 6(4), 27–39 (1999) 39. Klein, W.: Wegauskünfte. Zeitschrift für Literaturwissenschaft und Linguistik 33, 9–57 (1979) 40. Knauff, M.: Space to Reason: A Spatial Theory of Human Thought. MIT Press, Cambridge (2013) 41. Lakoff, G., Johnson, M.: Philosophy in the Flesh: The Embodied Mind and its Challenge to Western Thought. Basic Books, New York (1999) 42. Landau, B., Jackendoff, R.: „what“ and „where“ in spatial language and spatial cognition. Behav. Brain Sci. 16(2), 217–238 (1993) 43. Levesque, H., Davis, E., Morgenstern, L.: The winograd schema challenge. In: Eiter, T., McIlraith, S. (Hrsg.) Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning, Rome. AAAI Press (2012) 44. Lynch, K.: The Image of the City. The MIT Press, Cambridge (1960) 45. Maguire, E.A., Burgess, N., Donnett, J.G., Frackowiak, R.S.J., Frith, C.D., O’Keefe, J.: Knowing where and getting there: A human navigation network. Science 280(5365), 921– 924 (1998) 46. Mark, D.M.: Finding simple routes: ,Ease of description‘ as an objective function in automated route selection. In: Second Symposium on Artificial Intelligence Applications, Miami Beach, S. 577–581. IEEE (1985) 47. McNamara, T.P.: Mental representations of spatial relations. Cogn. Psychol. 18(1), 87–121 (1986) 48. Michon, P.E., Denis, M.: When and why are visual landmarks used in giving directions? In: Montello, D.R. (Hrsg.) Spatial Information Theory. Lecture Notes in Computer Science, Bd. 2205, S. 292–305. Springer, Berlin (2001) 49. Miller, H.J., Shaw, S.L.: Geographic Information Systems for Transportation. Spatial Information Systems. Oxford University Press, Oxford (2001) 50. Montello, D.R.: Spatial cognition. In: Smelser, N.J., Baltes, P.B. (Hrsg.) International Encyclopedia of the Social & Behavioral Sciences, S. 14,771–14,775. Pergamon Press, Oxford (2001) 51. Montello, D.R.: Navigation. In: Shah, P., Miyake, A. (Hrsg.) The Cambridge Handbook of Visuospatial Thinking, S. 257–294. Cambridge University Press, New York (2005) 52. Ogden, C.K., Richards, I.A.: The Meaning of Meaning: A Study of the Influence of Language Upon Thought and of the Science of Symbolism. Routledge & Kegan Paul, London (1923) 53. O’Keefe, J., Nadel, L.: The Hippocampus as a Cognitive Map. Clarendon Press, Oxford (1978) 54. Pillac, V., Gendreau, M., Guéret, C., Medaglia, A.L.: A review of dynamic vehicle routing problems. Eur. J. Oper. Res. 225(1), 1–11 (2013) 55. Plumert, J.M., Spalding, T.L., Nichols-Whitehead, P.: Preferences for ascending and descending hierarchical organization in spatial communication. Mem. Cogn. 29(2), 274–284 (2001) 56. Psaraftis, H.N.: Dynamic vehicle routing: status and prospects. Ann. Oper. Res. 61(1), 143–164 (1995) 57. Raney, B., Nagel, K.: Iterative route planning for large-scale modular transportation simulations. Future Gener. Comput. Syst. 20(7), 1101–1118 (2004) 58. Richter, D., Vasardani, M., Stirling, L., Richter, K.F., Winter, S.: Zooming in – zooming out: hierarchies in place descriptions. In: Krisp, J.M. (Hrsg.) Progress in Location-Based Services. Lecture Notes in Geoinformation and Cartography, S. 339–355. Springer, Berlin (2013) 59. Richter, K.F., Winter, S.: Landmarks: GIScience for Intelligent Services. Springer, Cham (2014)

4 Geoinformation zur Navigationsunterstützung

89

60. Schwering, A.: Approaches to semantic similarity measurement for geo-spatial data: a survey. Trans. GIS 12(1), 5–29 (2008) 61. Searle, J.R.: Minds, brains, and programs. Behav. Brain Sci. 3, 417–424 (1980) 62. Shanon, B.: Where questions. In: 17th Annual Meeting of the Association for Computational Linguistics, La Jolla. ACL (1979) 63. Shieber, S.M.: Lessons from a restricted Turing test. Commun. ACM 37(6), 70–78 (1994) 64. Siegel, A.W., White, S.H.: The development of spatial representations of large-scale environments. In: Reese, H.W. (Hrsg.) Advances in Child Development and Behavior, Bd. 10, S. 9–55. Academic Press, New York (1975) 65. Smith, B., Mark, D.M.: Do mountains exist? Towards an ontology of landforms. Env. Plan. B 30(3), 411–427 (2003) 66. Stevens, A., Coupe, P.: Distortions in judged spatial relations. Cogn. Psychol. 10(4), 422–437 (1978) 67. Tanenbaum, A.S., van Steen, M.: Distributed Systems: Principles and Paradigms, 2. Aufl. Prentice Hall, Upper Saddle River (2006) 68. Taube, J.S., Muller, R.U., Ranck, J.B.: Head-direction cells recorded from the postsubiculum in freely moving rats. I. Description and quantitative analysis. J. Neurosci. 10(2), 420–435 (1990) 69. Tom, A., Denis, M.: Referring to landmark or street information in route directions: what difference does it make? In: Kuhn, W., Worboys, M., Timpf, S. (Hrsg.) Spatial Information Theory. Lecture Notes in Computer Science, Bd. 2825, S. 384–397. Springer, Berlin (2003) 70. Turing, A.M.: Computing machinery and intelligence. Mind 59(236), 433–460 (1950) 71. Uexküll, J.v.: Kompositionslehre der Natur: Biologie als undogmatische Naturwissenschaft. Propyläen-Verlag, Berlin (1980) 72. Vaid, S., Jones, C.B., Joho, H., Sanderson, M.: Spatio-textual indexing for geographical search on the web. In: Advances in Spatial and Temporal Databases, Angra dos Reis, S. 923–923 (2005) 73. Varela, F.J., Thompson, E., Rosch, E.: The Embodied Mind: Cognitive Science and the Human Experience. The MIT Press, Cambridge (1991) 74. Vasardani, M., Timpf, S., Winter, S., Tomko, M.: From descriptions to depictions: a conceptual framework. In: Tenbrink, T., Stell, J., Galton, A., Wood, Z. (Hrsg.) Spatial Information Theory. Lecture Notes in Computer Science, Bd. 8116, S. 299–319. Springer, Cham (2013) 75. Weisbrod, G.: Models to predict the economic development impact of transportation projects: historical experience and new applications. Ann. Reg. Sci. 42(3), 519–543 (2008) 76. Weiser, M., Brown, J.S.: The coming age of calm technology. In: Denning, P.J., Metcalfe, R.M. (Hrsg.) Beyond Calculation: The next fifty years of computing, S. 75–85. Copernicus, New York (1997) 77. Wiener, J.M., Mallot, H.A.: ,Fine-to-coarse‘ route planning and navigation in regionalized environments. Spat. Cogn. Comput. 3(4), 331–358 (2003) 78. Wiener, N.: Cybernetics or Control and Communication in the Animal and the Machine. John Wiley, New York (1948) 79. Winter, S.: Spatial intelligence: ready for a challenge? Spat. Cogn. Comput. 9(2), 138–151 (2009) 80. Winter, S., Freksa, C.: Approaching the notion of place by contrast. J. Spat. Inf. Sci. 2012(5), 31–50 (2012) 81. Wolbers, T., Hegarty, M.: What determines our navigational abilities? Trends Cogn. Sci. 14(3), 138–146 (2010) 82. Wolbers, T., Hegarty, M., Büchel, C., Loomis, J.M.: Spatial updating: how the brain keeps track of changing object locations during observer motion. Nat. Neurosci. 11(10), 1223–1230 (2008)

5

Geodateninfrastrukturen Lars Bernard, Johannes Brauner, Stephan Mäs und Stefan Wiemann

Inhalt 1 Geodateninfrastrukturen im Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Kommerzielle Kartendienste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Nutzergenerierte Geoinformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 AdministrativeGeodateninfrastrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Wissenschaftliche Geoinformationsinfrastrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Methoden und Technologien für Geodateninfrastrukturen . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Modelle für Betrieb und Entwicklungen von Geodateninfrastrukturen . . . . . . . . . . 2.2 Architekturen und Protokolle für Geodateninfrastrukturen . . . . . . . . . . . . . . . . . . . . 2.3 Geodatenschemata und -transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Geodatenfusion in Geodateninfrastrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Verteilte Geoprozessierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Austausch von interdisziplinären Umweltmodellen . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Fazit Geodateninfrastrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

92 94 96 97 100 102 102 105 107 109 112 114 118 119

L. Bernard () Professur für Geoinformatik, Technische Universität Dresden, Dresden, Deutschland E-Mail: [email protected] J. Brauner · S. Mäs · S. Wiemann Technische Universität Dresden, Dresden, Deutschland E-Mail: [email protected]; [email protected]; [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_66

91

92

L. Bernard et al.

Zusammenfassung

Geodateninfrastrukturen (GDI) zielen auf den einfachen Austausch von Geodaten und -diensten. GDI sollen die effiziente Umsetzung von Geoinformationsanwendungen mit Zugriff auf aktuelle, verteilte heterogene Geodatenquellen erlauben. Zahlreiche gesetzliche, kommerzielle, nutzergetriebene und wissenschaftliche Initiativen forcieren den Auf- und Ausbau von GDI. Der Beitrag diskutiert Arten und aktuelle Entwicklungsstände von GDI und zeigt Ansätze für die nächsten GDI-Generationen. Schlüsselwörter

Geodateninfrastrukturen (Geoinformationsinfrastrukturen · GDI) · Geoprozessierung · Interoperabilität · Kartendienste · Nutzergenerierte Geoinformationen (VGI) · INSPIRE · Geodatenfusion · Geoinformation · Geodaten · Geodienste · Geodatenmodelle (Schemata)

1

Geodateninfrastrukturen im Überblick

Die Idee zur Schaffung internetbasierter Infrastrukturen für den Austausch und die gemeinsame Nutzung verteilter digitaler Geodaten ist inzwischen mehr als 20 Jahre alt: Mit der Executive Order 12906 – Coordinating Geographic Data Acquisition and Access: The National Spatial Data Infrastructure (NSDI) fiel 1994 der Startschuss für den Aufbau der US NSDI, einer Geodateninfrastruktur (GDI) in den USA. Inzwischen gibt es eine Vielzahl an Initiativen die an einheitlichen Standards und Richtlinien zum Austausch von Geoinformationen arbeiten. Entsprechende Aktivitäten, etwa der International Organization for Standardization (ISO) und des Open Geospatial Consortium (OGC) zielen einerseits auf syntaktische Interoperabilität (etwa Austauschformate oder Diensteschnittstellen) aber auch immer mehr auf semantische Interoperabilität (gemeinsame Vokabulare oder semantische Referenzsysteme) für künftige Informationsinfrastrukturen. Auf europäischer Ebene stellt die Direktive Infrastructure for Spatial Information in the European Community (INSPIRE, http://inspire.jrc.ec.europa.eu/) die gesetzliche Grundlage zur Schaffung einer behördlichen, europäischen Infrastruktur zum effizienten Austausch umweltrelevanter Geodaten. Die vor rund 10 Jahren aufgekommenen kommerziellen Kartendienste (z. B. Google Maps, Bing Maps) und nutzergetriebenen Crowdsourcing-Projekte (z. B. OpenStreetMap), die nahezu gleichzeitig entstanden sind und sehr rasch über eine globale Nutzergemeinde verfügt haben, beeinflussen heute ebenfalls maßgeblich die aktuellen GDI-Entwicklungen. Zur besseren Einordnung der im Folgenden genauer dargestellten Initiativen und Aktivitäten zu Entwicklungen im Kontext von Geodateninfrastrukturen soll eine knappe Begriffsbestimmung über das zu Grunde liegende Verständnis einer GDI vorangestellt werden: Eine Geodateninfrastruktur umfasst verteilte Geodaten und -dienste, Netzwerke, Standards und Richtlinien zum verantwortungsvollen Austausch und Umgang

5 Geodateninfrastrukturen

93

mit den zur Verfügung stehenden Geoinformationen sowie die institutionellen, organisatorischen, technologischen und wirtschaftlichen Ressourcen zu Entwicklung, Betrieb und Pflege der Geodateninfrastruktur. Nutzer einer Geodateninfrastruktur können ad hoc die angebotenen Geodaten und -dienste verwenden und für ihre Anwendungszwecke zusammenführen sowie eigene Geodaten und -dienste bereitstellen. Dieses GDI-Verständnis orientiert sich an [1] und ist recht weitreichend. Es lässt auch Analogien von GDI zu anderen Infrastrukturen (etwa Verkehr- oder Kommunikationsinfrastrukturen) erkennen. In der Literatur und Gesetzgebung finden sich heute zahlreiche weitere Definitionsansätze, die teilweise und je nach Kontext den GDI-Begriff beispielsweise auf technologische, strukturelle oder rechtliche Aspekte reduzieren. Auch wenn Daten und Information sowie Geo und Raum jeweils keine synonymen Begriffspaare sind, werden die Begriffe Geodaten- oder Geoinformationsinfrastruktur und Spatial Data oder Spatial Information Infrastructure oft synonym verwendet. Auch hier soll GDI daher als Synonym zu Geo- oder Rauminformationsinfrastrukturen verstanden werden. Dabei sollte jedoch nicht vergessen werden, dass die Ableitung von Information immer entsprechende Methoden sowie Wissen um die Semantik und die Rezipienten voraussetzt, die es zu berücksichtigen gilt. Die obige GDI-Definition umfasst auch die Nutzersicht und speziell den Aspekt, ad hoc, also sofort und ohne weitere technische oder organisatorische Aufwände, auf die Ressourcen einer GDI zugreifen zu können. Das ist gleichzeitig ein wesentliches Qualitätsmerkmal für GDI, die sicherlich nur dann die bisherigen proprietären Geodatensilos und Doppelentwicklungen ablösen können, wenn die Nutzer es gewährleistet sehen, dass auch ohne selbstgepflegte lokale Kopien immer problemlos auf Geodaten und -dienste für die eigenen Anwendungen zugegriffen werden kann. Wiederum in Analogie zu anderen (Informations-)Infrastrukturen können ergänzend zu der obigen Definition eine Reihe grundlegender Prinzipien einer GDI angeführt werden: • Subsidiarität: Die Verantwortung für Bereitstellung, Qualität, Konsistenz, Aktualität sowie Pflege der verteilten Geodaten und aufsetzenden Geodienste liegt grundsätzlich bei den Erzeugern bzw. Anbietern. • Interoperabilität und Interdisziplinarität: Die Einigungen auf gemeinsame, idealerweise etablierte Standards und Referenzsysteme sind Grundlage technischer und semantischer Interoperabilität, um den Austausch von Geoinformationen auch über Disziplingrenzen hinweg zu ermöglichen. • Skalierbarkeit: Verfügbare Geodaten und -dienste sollten für unterschiedliche Anwendungszwecke wieder- und weiterverwendet werden können. Eine GDI sollte im technischen und organisatorischen Sinn erweiterbar sein. • Transparenz: Die verteilt verfügbaren Geodaten und -dienste sollten problemlos recherchierbar und nutzbar sein. Auch die zu Grunde liegenden Regelwerke und Beteiligungsformen zu Abstimmungsprozessen in einer GDI sollten bekannt sein.

94

L. Bernard et al.

• Verlässlichkeit: Die (langfristige) Verfügbarkeit einer GDI sollte ebenso, wie die Einhaltung definierter Qualitätsstandards für Geodaten, Geodienste und Anwendungen, sichergestellt sein. • Effizienz und Effektivität: Es gilt unter Berücksichtigung der gegebenen Ressourcen bestmögliche Informationen zur Entscheidungsunterstützung oder Problemlösung unkompliziert bereitzustellen. Bestmöglich kann sich dabei beispielsweise auf die Aktualität, die raumzeitliche oder thematische Abdeckung und Auflösung der zugrunde liegen Geodaten und -dienste, deren Kosten oder Rechte beziehen und sollte durch einen Bewertungsrahmen objektiv beschreibbar sein. Heute lassen sich viele Initiativen zum Austausch von Geoinformationen finden, die sich in unterschiedlichen Anwendungsbereichen und Regionen mehr oder weniger stark etabliert haben und die genannten Prinzipen bzw. den angeführten GDI-Begriff adressieren. Für die folgende Darstellung sind diese grob kategorisiert in kommerzielle Kartendienste, Projekte für nutzergenerierte Geoinformationen, administrative GDI, sowie wissenschaftliche Geoinformationsinfrastrukturen. Daneben gibt es zahlreiche politisch getriebene Programme und Verbände [2], die darauf zielen weltweit Verfügbarkeit und Austausch von Geodaten zu stimulieren. Beispiele sind die Global Spatial Data Infrastructure Association (GSDI, seit 1996), das Global Earth Observation System of Systems (GEOSS, seit 2005) oder die United Nations Initiative on Global Geospatial Information Management (UN-GGIM, seit 2011), die an dieser Stelle aber nicht weiter betrachtet werden.

1.1

Kommerzielle Kartendienste

Im Kontext der Entwicklung der US NSDI hat der damalige US-Vizepräsident Al Gore die Vision einer Digital Earth als Anwendung skizziert, in der sich an unterschiedlichen Stellen vorhandene auch zeitvariante und dreidimensionale Geodaten zusammenführen und in Form eines virtuellen Globus nutzen lassen [3]. Dabei ging Al Gore davon aus, das eine solche Anwendung derart rechenintensiv ist, dass sie nur auf speziellen Terminals in Forschungszentren oder Bibliotheken ausgeführt werden kann. Seit Mitte der 1990er-Jahre gab es bereits erste WebGISAnwendungen für einfache Geovisualisierungen und Geodatenabfragen [4]. In 2004 stellten die US-Raumfahrtbehörde NASA mit der Software World Wind sowie 2005 die Firma Google mit dem aus dem Keyhole Earth Viewer hervorgegangen Google Earth und der Entwicklung Google Maps dann Internetanwendungen bereit, die auf handelsüblichen PCs viele Aspekte der von Al Gore skizzierten Vision umsetzten und auf Massenanwendungen zielten. Es kam zu einer Zäsur in der weltweiten Nutzung von Geoinformationen: Die heute im Internet angebotenen Kartendienste der großen IT-Unternehmen können auf stationären PCs und unterschiedlichen mobilen Endgeräten problemlos genutzt werden und erreichen sehr große Nutzerzahlen. Die Nutzungen dieser Kartendienste mit den angebotenen räumlichen Such- und Navigationsfunktionen und deren Integration in die Internetsuchmaschinen haben

5 Geodateninfrastrukturen

95

inzwischen auch analoge Karten in vielen Bereichen abgelöst. Anwender digitaler Geodaten sind damit nicht mehr nur die GIS-Experten der 1990er-Jahre sondern nahezu alle Internetnutzer. Heute verfügbare Kartendienste lassen sich in unterschiedliche Webanwendungen einbinden und bieten typischerweise Programmierschnittstellen zur Einbindung eigener, einfach strukturierter Geodaten in die Kartenansichten sowie zur Nutzung von Routingfunktionen auf Basis der zentral durch die Anbieter vorgehaltenen Geodaten [5]. Als sog. Mashups können so recht einfach und schnell, performante und gut nutzbare Geoauskunfts- bzw. Visualisierungsanwendungen realisiert werden (Abb. 1). Die Kartendienste erfüllen damit die oben angeführten Prinzipien einer GDI bezüglich Effizienz und Effektivität und zeigen sich für den Anwendungsbereich einfacher Kartenauskunftsdienste gut nutzbar und vielseitig auch bei großen Nutzerzahlen einsetzbar (Skalierbarkeit). Datei- und Dienstschnittstellen sind zu großen Teilen proprietär (mangelnde Interoperabilität), die Kombination der

Abb. 1 Beispiel eines einfachen Mashup auf Basis der Google Maps API zur Visualisierung von in einer bereitgestellten Datei (cta.kml) kodierten Linienzüge in Google Maps [6]

96

L. Bernard et al.

Geodaten und -dienste verschiedener Quellen daher oft nicht oder nicht ad hoc möglich. Die zu Grunde liegenden Regelwerke dieser Infrastrukturen sind meist nur schwer zugänglich oder unzureichend dokumentiert (mangelnde Transparenz). Auch detaillierte und strukturierte Metadaten mit Informationen zu den verfügbaren Geodaten und -diensten sowie ihren Qualitäten und Qualitätsanforderungen finden sich kaum. Die Recherche zur Wiederverwendung von Geodaten und -diensten ist daher meist mühselig. Die vollständige räumliche oder thematische Abdeckung, die dauerhafte Bereitstellung der in diesen Infrastrukturen angebotenen Daten oder Funktionalitäten und die Investitionssicherheit eigener Entwicklungen ist meist nicht garantiert (mangelnde Verlässlichkeit).

1.2

Nutzergenerierte Geoinformationen

Nutzergenerierte Geoinformationen umfassen sowohl die unbewusst und ggf. unfreiwillig als auch die bewusst bzw. freiwillig durch Anwender erfassten Geodaten. In der Umweltbeobachtung, etwa in der Ornithologie gibt es mit den jährlichen Vogelzählungen des Christmas Bird Counts (http://www.audubon.org) bereits eine mehr als 100-jährige Tradition von gemeinschaftlich und freiwillig erfassten Daten. Durch die heute nahezu ubiquitär, etwa in jedem Smartphone, verfügbaren Technologien für Datenaustausch, Lokalisierung und Sensorik sowie die mit dem Web 2.0 aufgekommene Kultur der sozialen Netze, Blogs und Mashups zur schnellen online Publikation haben das Crowdsourcing und hier speziell Initiativen zu nutzergenerierten Geoinformationen einen erheblichen Schub bekommen. Im Kontext des oben beschriebenen GDI-Verständnisses soll dabei nur die bewusste und freiwillige Erfassung und Bereitstellung von nutzergenerierten Geodaten und -diensten als relevant angesehen werden, für die sich auch der Begriff der Volunteered Geographic Information (VGI) etabliert hat [7]. Neben der Einbindung lokaler Expertise zählen Aktualität und dezentrale Datenerfassung zu den großen Vorteilen von VGI. Bürger können mit ihrem lokalen Wissen gezielt bei der Ergänzung und Korrektur von Datenbeständen helfen, außergewöhnliche Ereignisse erkennen, dokumentieren und zeitnah weitermelden. Die sehr schnelle gemeinschaftliche, weltweit verteilte Kartierung für Katastrophen- und Krisengebiete auf Grundlage aktueller Beobachtungen oder Satellitendaten, oder die Extraktion und Zusammenführung aktueller Nachrichten aus sozialen Netzwerken hat zu neuen Formen der humanitären Hilfe und dem Begriff der Digital Humanitarians geführt [8, 9]. Das in 2004 gestartete OpenStreetMap Projekt (OSM) zum Aufbau einer freien digitalen Weltkarte ist das prominenteste VGI-Beispiel. Dabei stammen die zusammengetragenen Geodaten sowohl aus den GPS-Messungen und Digitalsierungen der mehr als 2 Millionen Nutzer als auch aus Geodatenspenden unterschiedlicher Institutionen [10]. Die zusammengeführten frei verfügbaren OSM Daten werden heute in zahlreichen Anwendungen eingesetzt und über unterschiedliche Kartendienste zur Verfügung gestellt. Die ursprünglich stark auf Straßendaten fokussierten Erfassungen sind nun auch auf weitere topographische Daten und Indoor-Daten erweitert worden. Das gemeinnützige Unternehmen OpenStreetMap

5 Geodateninfrastrukturen

97

Foundation organisiert den operationellen Betrieb und die Finanzierung von OSM und tritt als juristische Person für OSM auf. Spezielle Arbeitsgruppen moderieren den Datenerfassungsprozess in OSM, etwa um die Datenqualität zu sichern und Datenvandalismus zu verhindern. Qualität und Eignung nutzergenerierte Geoinformation für die Weiterverwendung hängen unter anderem von der Expertise der (freiwilligen) Datenerfasser, der genutzten Sensorik und den eingesetzten Plausibilisierungsverfahren ab. Die Entwicklung von Methoden zur Validierung nutzergenerierter Daten untereinander und gegen Wissensbasen oder Modellierungsergebnisse sowie zur Kombination nutzergenerierter mit amtlichen Daten sind aktuelle Forschungsthemen in diesem Bereich [7, 11, 12]. Die Ergebnisse von VGI Initiativen sind überwiegend zentrale Geodatenbanken oder Softwareplattformen und orientieren sich zumeist nicht an dem Subsidiaritätsprinzip. Es bleibt grundlegend zu klären, inwieweit freiwillige Crowdsourcing-Aktivitäten als nachhaltige Datenquelle für das Umweltmonitoring oder den Aufbau von Frühwarnsystemen geeignet bzw. verlässlich sind [13].

1.3

AdministrativeGeodateninfrastrukturen

Seit den 1990er-Jahren finden sich weltweit auf verschiedenen Verwaltungsebenen und dort innerhalb unterschiedlicher Fachdomänen Initiativen zum Aufbau von GDI. Die Initiative Infrastructure for Spatial Information in Europe (INSPIRE), die 2001 gemeinsam durch Vertreter aus den Umwelt- und Vermessungsverwaltungen der EU-Mitgliedstaaten, den EU-Generaldirektionen Umwelt, Eurostat und Gemeinsame Forschungsstelle sowie der Europäischen Umweltagentur initiiert und 2007 als EU-Direktive [14] verabschiedet wurde, ist aktuell in diesem Kontext die relevanteste Initiative zum Aufbau der behördlichen GDI in Europa. Kernziel von INSPIRE ist die Entwicklung einer europäischen GDI, die den Zugriff auf (digitale) raumbezogene Umweltinformationen der nationalen Verwaltungen in der Europäischen Union erheblich erleichtern soll. Die Direktive dient als gesetzliches Rahmenwerk für den Aufbau einer europäischen GDI, die sich im Wesentlichen aus den GDI der Europäischen Mitgliedstaaten zusammensetzt. Dafür legt INSPIRE die grundlegenden Komponenten, Interoperabilitäts- und Leistungsfähigkeitsforderungen sowie die Zeitpläne für die Umsetzung fest. Die INSPIRE Umsetzung in entsprechende Bundes- und Ländergesetze liefert heute auch die wesentliche Grundlage der konsolidierten Entwicklung der GDI in Deutschland. Die INSPIRE Direktive fordert die Bereitstellung von Metadaten als beschreibende Daten für die problemlose thematische und räumliche Recherche nach behördlichen Geodaten und -diensten und für deren Bewertung. Die Metadaten sollen auch Informationen zu Nutzungsbedingungen, Qualität, Konformität, Verantwortlichen sowie Zugangsbeschränkungen liefern. Konkret adressiert INSPIRE 34 Themen, für die durch harmonisierte Geodatenspezifikationen Interoperabilität und damit ein vereinfachter Datenaustausch und Wiederverwendbarkeit erreicht werden sollen. Die dabei adressierten Themen bzw. Dateninhalte orientieren sich im Wesentlichen an den Anforderungen der Umweltberichterstattung und gehen damit

98

L. Bernard et al.

in Art und Umfang deutlich über die Inhalte der oben beschrieben Kartendienste und nutzergerierten Geoinformation hinaus. Ausgehend von existierenden Ansätzen und Modellen (Abschn. 2.3) sollen harmonisierten Geodatenspezifikationen (Schemata zu Objektdefinitionen und Georeferenzierung) für diese Themenbereiche geschaffen werden und die in diese Themenbereiche fallenden behördlichen Geodaten entsprechend dieser Schemata INSPIRE-konform bereitgestellt werden. Die 34 Themen (Tab. 1) sind in 3 Teilbereiche (Annex 1–3) untergliedert. Dabei entsprechen die in den ersten beiden Teilbereichen genannten Themen typischen Georeferenz- bzw. Geobasisdaten die für Modellierung und Austausch der eigentlichen Umweltdaten des dritten Teilbereichs als Referenz dienen sollen. Für diese Georeferenz- bzw. Geobasisdaten gilt es daher auch Identifikatorensysteme, Beschreibungen der Objektbeziehungen, Objektmodelle und verwendete Thesauri,

Tab. 1 Die 34 INSPIRE-Datenthemen, für die behördliche Geodaten entsprechend der INSPIRE Datenspezifikation harmonisiert bereitgestellt werden sollen Annex I

Annex II

Annex III

1. 2. 3. 4. 5. 6. 7. 8. 9.

1. 2. 3. 4.

1. 2. 3. 4. 5. 6.

Koordinatenreferenzsysteme Gittersysteme Geografische Bezeichnungen Verwaltungseinheiten Adressen Flurstücke oder Grundstücke Verkehrsnetze Gewässernetz Schutzgebiete

Höhe Bodenbedeckung Orthofotografie Geologie

7. 8. 9.

10. 11.

12. 13. 14. 15. 16. 17. 18. 19. 20. 21.

Statistische Einheiten, Gebäude Boden Bodennutzung Gesundheit und Sicherheit Versorgungswirtschaft und staatliche Dienste Umweltüberwachung Produktions- und Industrieanlagen Landwirtschaftliche Anlagen und Aquakulturanlagen Verteilung der Bevölkerung – Demografie Bewirtschaftungsgebiete, Schutzgebiete, geregelte Gebiete und Berichterstattungseinheiten Gebiete mit naturbedingten Risiken Atmosphärische Bedingungen Meteorologischgeografische Kennwerte Ozeanografischgeografische Kennwerte Meeresregionen Biogeografische Regionen Lebensräume und Biotope Verteilung der Arten Energiequellen Mineralische Bodenschätze

5 Geodateninfrastrukturen

99

Beschreibungen zur zeitlichen Dimension, sowie Aspekte der Datenaktualisierung einheitlich zu regeln. Die durch INSPIRE adressierten Geodaten werden durch Netzwerkdienste verfügbar gemacht. Die Direktive unterscheidet dazu Such-, Darstellungs-, Download- und Transformationsdienste sowie weitere Dienste, die den Aufruf von Geodatendiensten erlauben (Abb. 2). Die INSPIRE-Entwicklungen werden durch die Europäische Kommission koordiniert und die Mitgliedsstaaten berichten regelmäßig über die Umsetzung der Direktive. Auf der europäischen Ebene sind durch mehrere Expertengruppen INSPIRE-Durchführungsbestimmungen entwickelt worden, die die im Gesetzestext der INSPIRE-Richtlinie genannten Anforderungen konkretisieren. Diese Bestimmungen umfassen die abstrakten Anforderungen an die INSPIRE-Metadaten, Netzwerkdienste und Datenspezifikationen, die Zugriffsregeln für INSPIRE-Daten und Dienste sowie die Berichtspflichten zur INSPIRE-Umsetzung in den Mitgliedsstaaten. Ergänzend sind die rechtlich nicht bindenden INSPIRE Technical Guidances als technische Handlungsempfehlungen entwickelt worden, um die konkreten technischen Details zu den Spezifikationen und Schnittstellen auf Basis der aktuellen Normen und Standards zu definieren. Die Handlungsempfehlungen können bei Bedarf, etwa bei Änderungen der Technologien oder Verbesserung der Normen, aktualisiert werden, ohne dass der Gesetzgebungs- oder Regelungsprozess erneut durchlaufen werden muss. Open Data bezeichnet Daten öffentlicher Verwaltungen und privatwirtschaftlicher Betriebe, die ohne eine Einschränkung bezüglich ihrer Nutzung und Weiterverbreitung frei zugänglich gemacht werden. Damit verbundenen sind im Sinne eines Open Government Forderungen zur verstärkten Transparenz und offenen Beteiligungsprozessen in der öffentlichen Verwaltung. Im Bereich der Geodaten werden in den letzten Jahren immer mehr behördliche Daten als Open Data veröffentlicht, beispielsweise Basiskarten in Dänemark, Großbritannien, den Niederlanden und Tschechien. Im Geodatenzugangsgesetz (GeoZG) als der der deutschen Umsetzung von INSPIRE wurde in einer 2012 durchgeführten Reform der Open Data Bewegung Rechnung getragen: Geodaten und Geodatendienste des Bundes sollen grundsätzlich kostenfrei zur Verfügung gestellt werden. Hier bedarf die Frage, welche aus den Länderdaten auf Bundesebene zusammengeführten Daten

Anwendungen und Geoportale Internet Rechtemanagement Suchdienste Darstellungsdienste Weitere Dienste Downloaddienste Transf.-dienste

Metadaten

Geodaten

Abb. 2 Übersicht über die INSPIRE-Komponenten (nach [15])

harmonisiert interoperabel aufrufbar auffindbar

Netzwerkdienste

Geodatenhaltung

100

L. Bernard et al.

als Eigentum des Bundes gelten dürfen, jedoch noch weiterer Abstimmungen. Zunehmend setzen sich jedoch OpenData Regelungen auch auf den Länderebenen durch und es finden sich in einigen Bundesländern Open Data Portale, die zahlreiche Geodaten kostenfrei zur Verfügung stellen. Mittelfristig ist daher zu erwarten, dass nicht nur Umweltdaten sondern behördliche Geodaten generell in Deutschland kostenfrei zugänglich sind. Die zukünftigen Entwicklungen von GDI in den Verwaltungen müssen zeigen, ob und wie weit die Umsetzung der ambitioniert formulierten INSPIRE Direktive und der Open Data Bewegung gelingen kann und soll. Dabei darf die GDIUmsetzung nicht zum Selbstzweck werden. Es gilt etwa, durch künftige Reformen sowohl der INSPIRE-, ATKIS- und ALKIS-Regelungen, als auch der Regelungen zu Monitoring-, Planungs- und Beteiligungsverfahren weiter dafür Sorge zu tragen, dass mit den GDI-Diensten die behördlichen Berichts- und Regelungspflichten ad hoc erfüllt werden können und Doppelaufwände vermieden werden [2].

1.4

Wissenschaftliche Geoinformationsinfrastrukturen

Die Publikation von Forschungsdaten und Software gewinnt als zusätzlicher wissenschaftlicher Output neben den traditionellen Veröffentlichungen in wissenschaftlichen Zeitschriften und Lehrbüchern zunehmend an Bedeutung und trägt maßgeblich zu wissenschaftlicher Transparenz bei. In verschiedenen Disziplinen gibt es inzwischen Plattformen für Publikation und Austausch wissenschaftlicher Daten. In den Geo- und Umweltwissenschaften etabliert sich beispielsweise PANGAEA (Data Publisher for Earth and Environmental Science, http://www. pangaea.de/). Die publizierten Daten erhalten eine eindeutige Identifizierung in Form eines Digital Object Identifier (DOI), wie er auch für wissenschaftliche Veröffentlichungen verwandt wird und sind dauerhaft für die Datennutzung und weitere Datenzitate verfügbar. Allerdings haben sich generell für solche Datenpublikationen noch keine Zertifizierungsmechanismen etabliert, die dem peer review zur Qualitätssicherung wissenschaftlicher Zeitschriften gleichen. Ein solcher Prozess führt idealerweise auch zu einer Bewertung, welche Forschungsdaten und auch welche wissenschaftliche Softwareentwicklung in welchen Umfängen einer Langzeitarchivierung zugeführt werden sollten. Daten- oder Softwarepublikationen werden in heutigen wissenschaftlichen Anreizsystemen in der Regel gar nicht oder nur sehr gering honoriert. Für Wissenschaftler besteht daher kaum Grund wissenschaftliche Daten oder Software zu publizieren, bevor diese nicht umfänglich für eigene wissenschaftliche Aufsätze genutzt wurden. Die heute in der Wissenschaft nahezu überall übliche, durchgehend digitale und vernetzte Bearbeitung von Forschungsdaten erfordert formalisierte, transparente und letztlich weitgehend automatisierbare Regelungen zum Lizenz-, Persönlichkeits- und Datenschutz, derart, dass eine Nutzung von Daten für wissenschaftliche Anwendungen möglich ist bzw. bleibt (etwa in Anwendungen zur Umweltepidemiologie oder zu demographischen und Sozialstudien). Hier können Ansätze aus dem Bibliothekswesen und in den Forschungsnetzen etablierte Lösungen zur Autorisierung

5 Geodateninfrastrukturen

101

(z. B. DFN-AAI/Shibboleth) Ausgangspunkt weiterer Entwicklungen zur Formalisierung und Automatisierung der entsprechenden Lizenz- und Datenschutzbestimmungen sein. Archivierung und Bereitstellung wissenschaftlicher Daten und Software bedarf in den Zeiten der nur kurzfristig angelegten wissenschaftlichen Projektförderung auch entsprechend nachhaltiger technischer und organisatorischer Strukturen sowie einer Verteilung der Aufgaben. Der hier skizzierte generelle Reformbedarf in den Förderstrukturen und auch den wissenschaftlichen Kulturen an Hochschulen und außeruniversitären Forschungseinrichtungen zur künftigen Schaffung kollaborativer wissenschaftlicher Informationsinfrastrukturen bei gleichzeitig besserer Nutzung der physischen Forschungsinfrastrukturen (Messnetze, Großversuchsanstalten etc.) ist an verschiedenen Stellen erkannt [16]. Große Forschungsinitiativen wie die Initiative on Scientific Cyberinfrastructures der US National Science Foundation oder im Europäischen Raum die European Strategy Forum on Research Infrastructures sowie die Deutsche Forschungsgemeinschaft und der Wissenschaftsrat [16] forcieren den Aufbau wissenschaftlicher Informationsinfrastrukturen. Ziele solcher Infrastrukturen sind etwa die verbesserte Dokumentation, Transparenz und Reproduzierbarkeit von Forschung, eine höhere Rentabilität öffentlich geförderter Forschungsinitiativen sowie die verbesserte Unterstützung von datenintensiver, multi- und interdisziplinärer Forschung. Die Wiederverwendung von Forschungsdaten und -software soll erleichtert und die Zusammenarbeit zwischen Wissenschaftlern gefördert werden. Außerdem sollen Forschungsergebnisse auch für die Öffentlichkeit und Entscheidungsträger leichter zugänglich und nutzbar sein. Die zentralen Funktionen der meist isoliert für einzelne Forschungsdisziplinen entstehenden Plattformen sind in der Regel die Recherche in Katalogen, der Zugriff auf Daten und Visualisierungen, die Bereitstellung von Rechenkapazitäten sowie die Interaktion und Kollaboration zwischen Wissenschaftlern. Obwohl GDI ebenfalls die meisten dieser Funktionalitäten unterstützen, gibt es bisher kaum entsprechende Implementierungen als wissenschaftliche Informationsinfrastrukturen [17]. In Ihrer Formulierung einer Agenda für die Digital Earth 2020 und als Fortführung der Vision von Gore [3] sehen Cragila et al. [18] dazu folgende generelle Aufgaben für die künftige GDI-Entwicklung: • Förderung der Verknüpfung multidisziplinärer Modelle aus Natur-, Sozial- und Wirtschaftswissenschaften zur Vorhersage und Bewertung globaler Veränderungen. Die große Herausforderung dabei ist es, diese Modelle über Disziplingrenzen verständlich und nutzbar zu machen und die zu Grunde liegenden Annahmen, Einschränkungen und Unsicherheiten zu beschreiben. • Bereitstellung von Informationen zu den unterschiedlichen Szenarien politischer Maßnahmen und Möglichkeiten zum Vergleich des zu erwartenden sozialen, wirtschaftlichen und Umweltwandels. • Bereitstellung einer Plattform, die der breiten Öffentlichkeit und Entscheidungsträgern aus allen Regionen und sozialen Gruppen die Beteiligung und Rückmeldung zu den Analysen wissenschaftlicher Ergebnisse und den zu erwartenden Effekten ermöglicht.

102

L. Bernard et al.

• Integration von (nahe) Echtzeit-Beobachtungen aus Sensornetzwerken und sozialen Netzen. In diesem Kontext skizzieren Entwicklungen im Rahmen von Forschungsprojekten zum nachhaltigen Landmanagement, wie aktuelle GDI-Standards und Technologien für Forschungsinfrastrukturen in den Umweltwissenschaften genutzt und erweitert werden können [19, 20].

2

Methoden und Technologien für Geodateninfrastrukturen

Der Überblick über heutige GDI(-Arten) lässt einige Herausforderungen an die Geoinformatik zur Konzeption und Entwicklung der nächsten GDI-Generationen erkennen. Hierzu gehören der Entwurf und die Umsetzung tragfähiger Entwicklungs- und Betriebsmodelle sowie flexible Ansätze zur Geodatenmodellierung, -transformation und -fusion, um syntaktische und semantische Interoperabilität für die Integration heterogener Datenquellen zu schaffen. Weiterhin gilt es Ansätze zur interoperablen Geoprozessierung zu etablieren, um beispielsweise aus den stetig wachsenden, verteilten Geodatenbeständen die jeweils zur Entscheidungsunterstützung benötigte Geoinformation ad hoc ableiten zu können. Speziell für wissenschaftliche (Geo-)Informationsinfrastrukturen sind Methoden zum Austausch von Umweltsimulationsmodellen weiterzuentwickeln. Im Weiteren sollen dazu nicht umfassend aber exemplarisch Aspekte des zur Verfügung stehenden Methodenapparats dargestellt und einige Entwicklungsansätze skizziert werden.

2.1

Modelle für Betrieb und Entwicklungen von Geodateninfrastrukturen

Der durch die verschiedenen Gesetze und Regelungen geforderte Aufbau und operationelle Betrieb von GDI erfordert entsprechende Betriebsmodelle. Diese Modelle regeln die grundsätzliche Organisation der Prozesse, die einzuhaltenden technischen Randwerte, die Art und Verteilung der angebotenen Dienste und Dienstleistungen und legen die entsprechenden Rollen und Zuständigkeiten fest. Die Modelle orientieren sich dabei an ähnlichen Modellen aus den Bereichen ITInfrastrukturen und eGovernment. Hier etabliert sich der Aufbau von entsprechenden GDI-Dienstleistungszentren, die als Mediator wirken und in unterschiedlichen Skalierungen helfen können, für die einzelnen geodatenhaltenden Stellen erforderliche Rechnerressourcen und Kompetenzen für Entwicklung und Betrieb von Geodiensten zentral sicherzustellen und ergänzend anzubieten. Beispielhaft sei das Betriebsmodell der GDI-Sachsen [21, 22] angeführt. Auf einer abstrakten Ebene werden hier zunächst generell drei Szenarien für die Datenbereitstellung durch geodatenhaltende Stellen – Stellen, die durch die Regelungen oder Gesetzgebungen adressierte Geodaten führen – skizziert (Abb. 3):

5 Geodateninfrastrukturen

103

Anwender Zentrale Wahrnehmung

GDI

Zentrale Netzdienste

Dezentrale Netzdienste

Dezentrale Netzdienste

Dezentrale Netzdienste

Geodienste

Geodienste

Geodienste

Geodaten

Geodaten

Geodaten

geodatenhaltende Stelle

geodatenhaltende Stelle

geodatenhaltende Stelle Dezentrale Wahrnehmung

Abb. 3 Betriebsmodell zu möglichen zentralen und dezentralen Wahrnehmung von Aufgaben geodatenhaltender Stellen (verändert nach [21])

(1) Eine geodatenhaltende Stelle betreibt selbst dezentral Geodienste, die die dazu definierten GDI-Qualitätskriterien (Konformität, Performanz, Verfügbarkeit etc.) erfüllen. Diese Stelle verfügt über entsprechende Ressourcen (ausreichend performante und verfügbare Servertechnologien und Netzverbindungen, Kompetenz und personelle Ressourcen etc.). (2) Eine geodatenhaltende Stelle betreibt dezentral Geodienste, etwa eigene Darstellungs- oder Downloaddienste, die jedoch nicht zwingend die definierten Qualitätskriterien erfüllen. Eine zusätzliche (zentralisierte) Diensteschicht kaskadiert diese Dienste und stellt durch entsprechende Mechanismen (Harvesting und/oder Caching, verschiedene Arten von Nutzungsheuristiken, hochperformante und -verfügbare Servertechnologien etc.) sicher, dass die Diensteinhalte der dezentralen Dienste entsprechend der definierten Qualitätskriterien verfügbar sind. Auf diese Weise ist die Bereitstellung der dezentralen Dienste für eine geodatenhaltende Stelle weniger aufwändig. (3) Eine geodatenhaltende Stelle nutzt zentrale Geodienste zur Bereitstellung der Geodaten. Die zentralen Geodienste sind dann (wie unter 2) entsprechend der definierten Qualitätskriterien verfügbar. Dabei sollten die zentralen Geodienste durch die geodatenhaltenden Stellen derart konfigurierbar sein, dass die Aktualisierung der Geodatenbestände, die Änderung von Schematransformationen oder die Definition des Zugangsschutzes durch die jeweilige geodatenhaltende Stelle eigenständig vorgenommen und kontrolliert werden kann. Natürlich sind verschiedene Mischformen dieser grob skizzierten GeodiensteTopologien denkbar. Jede dieser technologischen Lösungen sollte dabei

104

L. Bernard et al.

organisatorisch dem Subsidiaritätsprinzip für GDI entsprechen: Verantwortung für, bzw. Wissen und Hoheit über die angebotenen Geodaten und Geodienste liegen bei den jeweiligen geodatenhaltenden Stellen. Ausgehend von den oben genannten Szenarien, lassen sich für den GDI-Betrieb grob folgende Rollen identifizieren: (1) GDI-Koordinationsstelle etwa auch als Anbieter zentraler Komponenten einer GDI (z. B. Portale, Katalogdienste, Konformitätstests) (2) Geodienste- und Geodatenanbieter mit dezentralen Diensten (Darstellungs-, Download-, Katalog-, fachbezogene Analysedienste) (3) Geodienste- und Geodatenanbieter als Nutzer zentraler Dienste (4) Anwender der Geodienste Die in der Umsetzung der aktuellen Gesetzgebungen entstehende erste GDIGeneration erlaubt die internetbasierte Suche nach Geodaten und Geodiensten, die integrierte Visualisierung von verteilt vorliegenden Geodaten als interaktive Internetkarten sowie das Herunterladen wohldefinierter Geodatensätze zur Integration in eigene Informationssysteme. Unterschiedliche Geoportale dienen dabei zumeist als Schaufenster der vorhandenen Geodaten. Das dahinter liegende Paradigma (suchen, anschauen, herunterladen) entspricht der traditionellen Bibliotheksmetapher (suchen, anschauen, ausleihen), erfüllt jedoch nicht dem Anspruch an eine GDI die angebotenen Geodaten und dienste nahtlos in eigene Anwendungen integrieren zu können (mangelnde Effektivität). Daher besteht weiterhin die Gefahr, dass redundante und meist teure und weniger effiziente Datensilos entstehen. Künftige administrative GDI sollten deshalb funktionale Schnittstellen anbieten, die eine mühelose Integration der GDI-Angebote in die Prozesse im eGovernment erlauben. Dabei können GDI-Entwicklungen dort durchaus auch Vorreiterfunktionen übernehmen, sollten aber nicht zu Geo-Speziallösungen führen. Die weitere GDI-Entwicklung erfolgt idealerweise ähnlich dem ursprünglich als Spiralmodell aus der Softwareentwicklung [23] bekannten Konzept iterativ und in Form von Pilotierungen, etwa in der folgenden Art: • Konkrete Verwaltungsaufgaben oder Berichtspflichten werden für die Umsetzung in der GDI priorisiert. • Betroffene Anwender und deren Anforderungen sowie die relevanten Geodatenthemen mit ihren Verantwortlichen werden identifiziert. • Erforderliche Datentransformationen, Prozessketten und mögliche Dienstetopologien werden unter Nutzung in der GDI verfügbarer Ressourcen (prototypisch) implementiert. • Die Piloten werden evaluiert (Effektivität, Effizienz, Nutzbarkeit, Risiken etc.) und bei Bedarf die Implementierungen entsprechend angepasst. • Erfolgreiche Lösungen werden als operationelle Anwendungen umgesetzt. • Erfahrungen aus Umsetzung und Evaluierung werden dokumentiert und fließen in die weiteren Pilotierungen ein.

5 Geodateninfrastrukturen

105

Adaptionen des Reference Model for Open Distributed Processing (RM-ODP) haben sich für Zusammenführung der Geschäftsprozesse, Anforderungsanalysen, Entwürfe der Datenmodelle und Dienstespezifikationen sowie der technischen Plattformeschreibungen etabliert und bieten einen geeigneten Rahmen für die fortlaufende Dokumentation einer GDI-Entwicklung [24]. Es finden sich aktuell nur recht wenige Kosten-Nutzen Studien zu GDI und da die verfügbaren Studien meist parallel zu oder sogar vor dem Aufbau operationeller GDI durchgeführt werden, sind die Nutzeffekte ex-ante geschätzt. Auch wenn laut [25] die verfügbaren Studien im Mittel aussagen, dass der zu erwartende bzw. geschätzte Nutzen von GDI dreifach höher als deren Kosten sei, bleiben für verlässliche Aussagen zur Effektivität und Effizienz (administrativer) GDI die zukünftigen Entwicklungen und Studien abzuwarten. Dabei ist auch ein einheitliches Verständnis des zu erwartenden Nutzen zu definieren und zu entscheiden, ob lediglich Rationalisierungseffekte und Effizienzsteigerungen eingehen oder auch Abschätzungen zu den auf besseren Geoinformationsgrundlagen eventuell fundierteren Entscheidungen oder zu möglichen Innovationseffekten berücksichtigt werden sollen.

2.2

Architekturen und Protokolle für Geodateninfrastrukturen

Technologisch betrachtet wird Funktionalität, die für Austausch, Visualisierung und Analyse von Geoinformationen in GDI benötigt wird, über Webdienste bereitgestellt. Webdienste sind autonom agierende Programme, die permanent auf einem Webserver laufen und auf Anfragen eines Webclients reagieren und entsprechende Antworten auf die Anfragen an den Webclient zurücksenden. Eine Anfrage wird über ein Netzwerk, z. B. das Internet, in Form einer URL (Uniform Resource Locator) gestellt. Webdienste können in unterschiedlichen Architekturen eingebettet werden, die genauer definieren, wie Anfragen gestellt und entsprechende Antworten des Webservers gegeben werden. Oft basieren Webdienste entweder auf einer Service Oriented Architecture (SOA) [26] oder einer Resource Oriented Architecture (ROA) [27]. ROA- und SOA-Webdienste unterscheiden sich hauptsächlich in der Komplexität, der Beschreibung und den Standards für die Schnittstellen, an die die Anfragen der Webclients geschickt werden. ROA-Webdienste basieren auf der Idee, dass alle Informationen und Angebote im WWW als eindeutig identifizierbare Ressource abrufbar sind. Dadurch, dass die Schnittstellen der Webdienste meist auf den Standardoperationen des Hyptertext Transfer Protocols (HTTP) basieren, ist außer der URL keine weitere Beschreibung notwendig. Mashups auf Basis von Kartendiensten (Abschn. 1.1) basieren daher oft auf ROA-Webdiensten. Die Schnittstellen sind einfacher implementierbar als bei SOA, anwendungsspezifisch notwendige Modifikationen oder Ergänzungen, sowie komplexe Schnittstellen sind jedoch nur mit hohem Aufwand umsetzbar. Durch die unparametrisierten Schnittstellen (URLs) ist die Verwendung von ROAWebdiensten für dynamische und parametrisierbare Inhalte nur bedingt geeignet.

106

L. Bernard et al.

Um dem Nachteil der fehlenden Parametrisierbarkeit zu umgehen, wird für SOAWebdienste eine weitere Schnittstellenschicht zwischen HTTP und dem eigentlichen Dienst eingeschoben. Diese Ebene ergänzt die reine HTTP-Schnittstelle um notwendige Dienstspezifika, die in einer expliziten Schnittstellenbeschreibung veröffentlicht werden, damit die Schnittstelle interoperabel und von beliebigen Webclients zugreifbar ist. Diese oft komplexen Schnittstellen sind meist stan-dardisiert, in GDI hauptsächlich durch Standards des OGC und der ISO-19.000er Normenreihe. Diesem Konzept folgen beispielsweise die Schnittstellen der INSPIRENetzdienste (Abschn. 1.3). Da die Komplexität und Parametrisierbarkeit beliebig hoch sein kann, können auch sehr komplexe Webdienste realisiert werden. Allerdings entstehen durch die starke Formalisierung und die zusätzlichen Schnittstellenebenen erhöhte Anforderungen für die während der Laufzeit zu verarbeitenden Informationen sowie in der Entwicklung erhöhte Aufwände für die notwendigen Server- und Client-Implementierungen. Im Gegensatz zu den beiden zuvor beschriebenen Dienstearchitekturen, stützt sich die Realisierung des Semantic Web [28, 29] auf das Linked Data Paradigma. Der Aufbau des Semantic Web wird im Wesentlichen durch den Wechsel von dokumentenorientierten hin zu daten- und informationsgetriebenen Strukturen im Internet charakterisiert. Die zunehmende Vernetzung von Daten und Nutzung einheitlicher Vokabulare und Ontologien soll dabei die automatisierte Ableitung anwendungsbezogen relevanter Informationen ermöglichen. Die Bereitstellung strukturierter Daten wird dabei über Linked Data realisiert. Dessen grundlegende Prinzipien sind (1) die Nutzung einheitlicher Identifikatoren (Unique Resource Identifier, URI) für Objekte, (2) die Nutzung von HTTP, um einen standardisierten Zugriff auf das Objekt zu ermöglichen, (3) die Bereitstellung aussagekräftiger Informationen über das Objekt über die W3C-Standards RDF (Resource Description Framework [30]) und SPARQL (SPARQL Protocol and RDF Query Language [31]) sowie (4) die Einbettung weiterführender Links. Alle Daten werden dabei über Tripel (Subjekt, Prädikat, Objekt) beschrieben, wobei jedes Element eindeutig referenzierbar und beschrieben sein muss. In zahlreichen Open Data Initiativen (Abschn. 1.3) wird Linked Data als sog. Linked Open Data (LOD) genutzt. So hat der britische Ordnance Survey die frei verfügbaren Daten zu britischen Postleitzahlen und Ortsverzeichnissen als LOD bereitgestellt (http:// data.ordnancesurvey.co.uk/). Diese Datensätze verfügen nur über einfache Punkt-, Linien- und Polygongeometrien und sind damit gut für die Publikation als Linked Data und zur Verknüpfung mit anderen LOD-Quellen geeignet. Die oben beschriebenen Ansätze eignen sich jeweils für unterschiedliche Zwecke und lassen sich komplementär nutzen [32]. Linked Data ist einfach zu realisieren und verspricht Potenzial für die Integration von Daten unterschiedlicher Fachdomänen. Linked Data wird oft für die Recherche nach und das Explorieren von Daten verwendet, ohne weitere Funktionalitäten bereitzustellen, etwa zur Analyse der gefundenen Daten. Dem gegenüber steht SOA mit einer komplexeren Realisierung, aber einem höheren Funktionalitätspotenzial für die Unterstützung spezifischer Aufgaben. Geoprozessierungsdienste (Abschn. 2.5), die komplexe Funktionalität für die Analyse von Geodaten bereitstellen, basieren daher meist auf SOA. ROA hingegen

5 Geodateninfrastrukturen

107

hoch

Analyse

Komplexität der Implementierung

SOA

Exploration ROA Linked Data

gering gering

Funktionales Angebot Domänenabhängigkeit

hoch

Abb. 4 Grobkategorisierung der Ansätze zu Service Oriented Architecture, Resource Oriented Architecture und Linked Data für unterschiedliche GDI-Anwendungsbereiche

kann, bezüglich des Realisierungsaufwands, der Flexibilität und dem Umfang der bereitgestellten Funktionalität zwischen Linked Data und SOA angesiedelt werden (Abb. 4).

2.3

Geodatenschemata und -transformationen

Die beschriebenen Ansätze zur Datenpublikation über kommerzielle Kartendienste oder über Linked Data zeigen, dass für die Datenbereitstellung zur Recherche, Exploration und einfachen Visualisierung nicht zwangsläufig komplexe Datenschemata verwendet werden müssen [33, 34]. Für den interoperablen und systemübergreifenden Datenaustausch komplex modellierter Geodaten (z. B. Klassenhierarchien, Assoziationsklassen, Topologie, Integritätsbedingungen etc.) sind diese Ansätze begrenzt geeignet und können zu Informationsverlusten führen. Hierfür müssen die Datenstrukturen und die Semantik bis zu einem gewissen Grad vereinheitlicht und entsprechend dokumentiert werden. Im Bereich der Datenmodellierung geographischer Informationen sind über die ISO-Normen [35, 36] die Grundlagen zur Beschreibung und Manipulation der räumlichen und zeitlichen Charakteristika objektstrukturierter Daten definiert [37]. Darauf aufbauend können Anwendungsschemata zur formalen Dokumentation von Datenstrukturen und Semantik definiert werden [38]. Diese Anwendungsschemata definieren konzeptionelle Schemata als Domänenmodelle oder Sichten für einen bestimmten Anwendungsbereich. Meist wird neben der konzeptionellen Modellierung in der Unified Modelling Language (UML) auch noch die Datenkodierung in der Geography Markup Language (GML) spezifiziert. GML bietet hierfür

108

L. Bernard et al.

Primitive zur Beschreibung von räumlichen Objekten, Geometrien, Referenzsystemen, Maßeinheiten, Topologie, sowie Zeit. Beispiele für solche vereinheitlichten bzw. standardisierten Anwendungsschemata sind: • CityGML: Modell und GML-Kodierung für 3-dimensionale Stadtmodelle. • ATKIS: Objektartenkatalog als Modell für die topographischen Daten der Landesvermessung in Deutschland. • OKSTRA: Objektkatalog für das Straßen und Verkehrswesen. • Harmonisierte Geodatenspezifikationen für die INSPIRE Geodatenthemen (vgl. Abschn. 1.3). Für konkrete Anwendungen ist es möglich, diese umfangreichen Schemata über Profile einzuschränken und zu vereinfachen. Umgekehrt ist es auch möglich, die Vorgaben der standardisierten Anwendungsschemata um eigene Klassen, Attribute und Codelisten zu erweitern. Vor dieser Aufgabe stehen derzeit etwa die von INSPIRE betroffenen Behörden, wenn sie ihre Daten in einem der INSPIRE-Modelle veröffentlichen wollen. Die Vorgaben der INSPIRE-Modelle sind hier häufig nicht detailliert genug. Beispielsweise sind beim Thema Schutzgebiete jeweils die Art des Schutzgebietes und der zugrunde liegende Rechtsakt zu beschreiben. Das Modell beinhaltet hierfür Vorgaben wie sie auf internationaler Ebene gültig sind (Ramsar-Konvention, UNESCO Weltkulturerbe etc.), aber nationale Bestimmungen wie die Kategorisierung entsprechend dem Bundesnaturschutzgesetz in Nationalpark, Biossphärenreservat etc. sind nicht enthalten. Diese Modellerweiterung, -verfeinerung und -einschränkung erfolgt in der Regel zunächst auf der Ebene der UML-Modellierungen (Abb. 5). Anschließend muss das erweiterte Anwendungsschema in ein Kodierungsschema (meist XML Schema) transformiert werden. Komplexe UML-Strukturen eignen sich nur begrenzt für die Datenenkodierung, deshalb wird das Modell bei der Transformation meist vereinfacht und die gegebene Klassenhierarchie abgeflacht. Das erhaltene Zieldatenschema bildet die Basis für die Schematransformation. Dabei werden zwischen dem Quelldatenschema, in dem die Ursprungsdaten vorliegen, und dem (INSPIRE-konformen) Zieldatenschema Transformationsregeln festgelegt. Diese beinhalten die Zuordnung von Quell und Zielattributen und von den Attributwerten verschiedener Codelisten, sowie die Transformation oder Umrechnung von Attributwerten z. B. bei unterschiedlichen Maßeinheiten. Die Definition der Transformationsregeln [39] erfolgt meist graphisch unterstützt in Transformationswerkzeugen (z. B. FME, HALE, ArcGIS for INSPIRE). Danach erfolgt die eigentliche Transformation der Ursprungsdaten in das Zieldatenformat. Die Transformationswerkzeuge erlauben es auch, in diesem Schritt direkt einen Webdienst für die Publikation der Daten zu publizieren [40]. Für den interoperablen Datenaustausch müssen neben den Daten selbst auch die Schemata bereitgestellt werden. Hierfür können Schemata und Codelisten in Registries versioniert abgelegt und verwaltet werden. Jeder Eintrag erhält dabei einen eindeutigen und permanenten Identifikator als Referenz. Wird der Registerinhalt an anderer Stelle verwendet kann über diesen Identifikator ein eindeutiger Bezug hergestellt werden. Registries werden in GDI auch verwendet, um

5 Geodateninfrastrukturen

109

Abb. 5 Ablaufschema der Schemaerweiterung mit anschließender Transformation

eindeutige Begrifflichkeiten für beispielsweise Koordinatenreferenzsysteme, gemeinsame Vokabulare oder Ontologien für Schlüsselwörter, Objektidentifikatoren oder Organisationen festzulegen. Diese Referenzierungen bieten die Basis für Koordinatentransformationen oder semantische Transformationen bei der Datenintegration.

2.4

Geodatenfusion in Geodateninfrastrukturen

Auch wenn es mit der weiteren Entwicklung von GDI zu einer stärkeren Harmonisierung von Datenmodellen kommt, wird es weiterhin einen großen Bedarf geben, (Geo-)Daten unterschiedlicher Quellen, etwa aus behördlichen und nutzergenerierten Datenbeständen oder von unterschiedlichen online verfügbaren Sensoren bestenfalls ad hoc für eine Fragestellung zusammenzuführen [41]. Entsprechende Methoden zur Geodatenfusion können dabei beispielsweise zur Datenanreicherung, zur Datenaktualisierung oder zur Detektion von Unterschieden bzw. Veränderungen genutzt werden. Existierende Lösungen in diesem Bereich sind meist komplexe, in sich geschlossene Systeme mit konkretem Anwendungsbezug. Für den Einsatz in einer GDI gilt es zunächst durch eine Dekomposition des Fusionsprozesses, einzelne wohldefinierte, wiederverwendbare Teilprozesse zu identifizieren. Diese können dann beispielsweise über Geoprozessierungsdienste

110

L. Bernard et al.

(Abschn. 2.5) bereitgestellt und je nach Anwendungszweck unterschiedlich miteinander kombiniert werden. Der Fusionsprozess kann dazu grob in sieben Einzelschritte unterteilt werden: (1) Suche und Bezug der gewünschten oder potenziell geeigneten Daten für die angestrebte Datenfusion. Dazu können Katalog- und Geodatendienste einer GDI genutzt werden. (2) Datenanreicherung, Fehlerkorrektur oder grundsätzliche Qualitätsprüfung (z. B. durch Geokodierungs- oder Geoprozessierungsdienste für die Prüfung der Topologie), um im Ergebnis einen konsistenten, für die weitere Bearbeitung geeigneten Datensatz bereitzustellen. (3) Datenharmonisierung zur Angleichung von Eingangsdaten, um die grundsätzliche Vergleichbarkeit herzustellen (z. B. Koordinatentransformation, Generalisierung). (4) Relations- und Ähnlichkeitsmessung, um mögliche Gleichheiten oder Beziehungen zwischen Datensätzen und den darin enthaltenen Objekten, basierend auf objekt-, struktur- oder konzeptspezifischen Eigenschaften zu ermitteln (z. B. mittels geometrischer, topologischer oder semantischer Maße). (5) Zuordnung von Objekten unter Nutzung der zuvor ermittelten Relations- und Ähnlichkeitsmaße; dabei werden Konfidenzmaße für die ermittelten Relationen abgeleitet. (6) Bewertung und eventuelle Auflösung bestehender Zuordnungskonflikte, entsprechende Anwendung von Konfliktlösungsstrategien und Verarbeitung von Relationen, um den konkreten Anwendungsfall umzusetzen (z. B. Datenintegration, Informationstransfer, Änderungsdetektion). (7) Temporäre oder dauerhafte Bereitstellung der Fusionsergebnisse, etwa über Visualisierungs- oder Zugriffsdienste in einer GDI, die dann die weitere Verarbeitung und Nutzung erlauben. Um Anwendungen die interoperable Nutzung der erstellten Fusionsergebnisse zu ermöglichen, müssen die ermittelten Relationen formalisiert beschrieben werden. Der Entwurf eines geeigneten Schemas zur Beschreibung der Relationen ist in Abb. 6 dargestellt. Grundsätzlich wird angenommen, dass alle beteiligten Objekte als Resource direkt oder indirekt eindeutig identifizierbar sind. Eine FeatureRelation beschreibt die Beziehung zwischen mindestens zwei Geoobjekten (Feature). Die Art der Relation wird durch Relationstypen bestimmt, welche wiederum auf durchgeführten Relations- und Ähnlichkeitsmessungen beruhen. Eine Relation sollte stets reproduzierbar sein und dementsprechend ausreichend Informationen zur vorangegangenen Prozessierung beinhalten. Als Beispiel kann die Gleichheit zweier Objekte (RelationType sameAs) durch verschiedene geometrische, topologische oder semantische Ähnlichkeitsmaße beschrieben sein. Ein einfaches geometrisches Konfidenzmaß kann dann etwa aus der mittleren quadratischen Abweichung der Objektgeometrien ermittelt werden. Um Relationen zwischen Objekten unterschiedlicher Geodatensätze verfügbar zu machen, bietet sich die Nutzung von Linked Data an (Abschn. 2.2). Dazu können

5 Geodateninfrastrukturen

111

RelationMeasure

Resource

+ value: measuredValue

+ Identifier: IRI

OGC:Feature

* + basedOn

+ feature

1..*

* + supports

RelationType

FeatureResource 2..*

+ hasType 1..*

ConfidenceMeasure SimilarityMeasure

+ linkedBy *

+ hasResource

* + participatesIn * + describes

FeatureRelation + date: timestamp

Abb. 6 Vereinfachtes Modell zur Beschreibung von Relationen zwischen Geodatenobjekten

Fusion Service

SDI Client OWS API

SDI Data Services

OWS API

RDF API Linked Data Store

RDF API

OWS/RDFAPI Semantic Web Client

Abb. 7 Komponenten zur Unterstützung von ad hoc Geodatenfusion unter Nutzung von LinkedData-Mechanismen

etablierte W3C Standards (z. B. RDF, SPARQL), sowie der OGC GeoSPARQL [42] Standard genutzt werden. Die in der Fusion ermittelten Relationen können so auch unabhängig von den jeweils fusionierten Dateninstanzen vorgehalten werden. Existierende Datenquellen im Web können so direkt miteinander in Relation gesetzt werden, ohne die Datensätze selbst ändern zu müssen. Eine einmalig berechnete Relation kann anschließend auf Anwendungsebene beliebig oft genutzt werden und die Datenquellen können ad hoc zusammengeführt werden. Zudem erlaubt die Verwendung von Linked Data auch die Nutzung bestehender Entwicklungen des Semantic Web, um etwa mit Methoden des Semantic Reasoning weitere Recherchen über ähnliche und relevante Informationsressourcen in unterschiedlichen Domänen durchzuführen. Abb. 7 zeigt das mögliche Zusammenspiel der entsprechenden Komponenten. Ein konkretes Beispiel für die GDI-Umsetzung einer Geodatenfusion nach dem beschrieben Konzept ist etwa die Kombination amtlicher Fachdaten mit nutzergerierten Geodaten. Da diese Datenbestände jeweils mit unterschiedlichen Zielstellungen und Methoden erhoben werden, sind sie nicht unbedingt redundant, sondern teilweise komplementär. Eine Integration dieser vielfältigen und heterogen

112

L. Bernard et al.

Abb. 8 Daten aus ATKIS (links), sowie in Relation stehende Daten aus OSM (rechts), inklusive Anzeige der zuvor ermittelten Ähnlichkeitsmaße in einem Web-Client

Datenquellen sollte damit idealerweise zu einer Verbesserung der thematischen als auch der raumzeitlichen Auflösung führen. Ein wesentliches Problem bei der Datenintegration ist die Handhabung und Verarbeitung der unterschiedlichen Datenqualitäten (Abschn. 1.2). Amtliche Daten werden gewöhnlich nach vordefinierten Qualitätsstandards erhoben und bereitgestellt und daher z. B. für sicherheitsrelevante Anwendungen bevorzugt als Datenbasis verwendet. Privatpersonen oder einzelne Nutzergruppen publizieren ihre Daten dahingegen oft ohne Qualitätsangaben. Dieses Konzept wurde beispielhaft in einer dienstebasierten Anwendung für Vergleich und Zusammenführung von Straßendaten aus ATKIS bzw. OpenStreetMap realisiert [43]. Die unter Einsatz geometrischer, topologischer und semantischer Maße ermittelten Ähnlichkeiten können analysiert und die Straßendaten zusammengeführt werden (Abb. 8). Weitere ähnliche Lösungen können beispielsweise für die Fusion von Daten im Umweltmonitoring genutzt werden, um behördliche Daten zur Beschreibung von Schutzgebieten mit Daten aus den zahlreichen Crowdsourcing Kampagnen der unterschiedlichen Naturschutzverbände und -initiativen zusammenzuführen [12].

2.5

Verteilte Geoprozessierung

Der Begriff Geoprozessierung umfasst alle Aspekte typischer GIS-Funktionalität für die Aufnahme, die Analyse, das Speichern und das Publizieren von Geodaten und betont in seiner derzeitigen Verwendung die Analyse von Geodaten [44]. Geoprozessierung darf nicht mit dem Begriff Geoprozess verwechselt werden, der einen Vorgang in der realen Welt beschreibt, z. B. ein Hochwasserereignis

5 Geodateninfrastrukturen

113

[45, 46]. Der Begriff der verteilten Geoprozessierung beschreibt die Umsetzung der entsprechenden Funktionalitäten in interoperable Webdienste, die austauschbar und flexibel für die Analyse verteilter Geodaten bereitgestellt werden [45,47]. Durch die Verfügbarkeit von Geoprozessierungsdiensten können auch über einfache Mashups (Abschn. 1.1) hinausgehende komplexe Anwendungen in GDI umgesetzt werden, z. B. für Ad-hoc-Analysen, die auf hochdynamischen Sensordaten basieren. Die Entwicklung von verteilter und interoperabler Geoprozessierung kann in drei Ebenen unterteilt werden (Abb. 9): (1) Austausch von Geoprozessierungsbibliotheken und -werkzeugen: Um Geoprozessierungslogik zu entwickeln und bereitzustellen, werden etablierte und hauptsächlich desktopbasierte Systeme und Softwarebibliotheken benutzt. Funktionalität kann nur mit erhöhtem Aufwand und manuell ausgetauscht werden. Die entwickelte Funktionalität bleibt meist proprietär, da sie fest an die verwendeten Systeme gekoppelt ist. (2) Bereitstellung von Geoprozessierungsfunktionalität: Die Bereitstellung von Funktionalität über Webdienste kann sowohl proprietär als auch standardisiert erfolgen. Anbieter stellen über Schnittstellen eng an die Daten gekoppelte Funktionalitäten über proprietäre Schnittstellen (etwa kommerzielle Kartendienste, Abschn. 1.1) oder standardisierte Schnittstellen als Web Feature Service [48] oder Web Coverage Service [49, 50] zur Verfügung. Die standardisierte Webdienstschnittstelle des OGC Web Processing Service [51,52] ermöglicht es Geoprozessierungsfunktionalität interoperabel und in enger oder loser Kopplung an die Daten bereitzustellen. Bestehende Funktionalitäten, beispielsweise aus GIS-Softwarebibliotheken, Geodatenbanken oder Simulationssystemen können über die WPS-Schnittstelle im Sinne einer Black Box gekapselt als Dienst zur Verfügung gestellt werden [53, 54].

• Harmonisierte Formalisierungen zur Beschreibung der Algorithmen • Standardisierte Austausch-Mechanismen zur Beschreibung der Prozessierungsumgebung

Bereitstellung von Geoprozessierungsfunktionalität

Austausch von Geoprozessierungsbibliotheken und Werkzeugen

• Etablierte Software Bibliotheken und Systeme (GIS); entwickelte Algorithmen/Logik bleiben proprietär

Abb. 9 Ebenen der interoperablen Geoprozessierung

Expertis

e

• Lose Datenkopplung, standardisiert (WPS) • Enge Datenkopplung, standardisiert (WFS/FE, WCS/WCPS) • Enge Datenkopplung, proprietär (ArcGISOnline, Google Maps API etc.)

# Anwe nder

Austausch von Geoprozessierungslogik

114

L. Bernard et al.

(3) Austausch von Geoprozessierungslogik (Algorithmen): Der Austausch von Geoprozessierungslogik im Sinne de moving code Paradigma markiert die nächste Interoperabilitätsebene für Geoprozessierung in GDI. Auf Basis des WPS Standards, eines Plattformbeschreibungsstandards aus dem Cloud Computing und Lizenzbeschreibungen können dann die Geoprozessierungsumgebungen definiert werden, in der Geoprozessierungscode ausgetauscht und flexibel in unterschiedlichen Umgebungen ausgeführt werden kann [55,56]. In dieser Form kann etwa bei der Prozessierung großer oder geschützter Datenmengen, der Algorithmus zu den Daten gebracht werden. Weiterhin werden Formalismen benötigt, die die Semantik der angebotenen Geoprozessierungslogik so beschreiben, dass Anwender beim Suchen und bei der Auswahl von Funktionalität für die Entwicklung oder die Reproduktion von komplexen wissenschaftlichen Arbeitsabläufen [17] automatisiert und über unterschiedliche Geoprozessierungsplattformen hinweg unterstützt werden. Die Basis hierfür legen Geooperatoren [57], die die Semantik der zugrundeliegenden Funktionalität formalisieren. Die Formalisierung umfasst u. a. Links zu alternativen Geooperatoren, die die gleiche oder ähnliche Funktionalität anbieten und Links zu Geooperatoren, die häufig im gleichen Kontext verwendet werden. Das Finden von passenden Geooperatoren wird durch formalisierte Kategorisierungen aus Wissenschaft und Praxis unterstützt. Diese Kategorisierungen stellen unterschiedliche Perspektiven auf Geooperatoren bereit: Aus Sicht einer bestimmten Anwendungsdomäne, auf Basis von Eigenschaften der benötigten Daten oder Prozessierungsumgebungen etc. Die Zusammenhänge und Links zwischen den Geooperatoren und den dazugehörigen Kategorien und Perspektiven können über eine concept map (Abb. 10) dargestellt werden. Die formalisierten Beschreibungen der Geooperatoren werden als Simple Knowledge Organization System (SKOS) [58, 59] und den Prinzipien von Linked Data folgend bereitgestellt [60, 61]. So wird sowohl eine wohlstrukturierte textuelle als auch eine maschinenlesbare Version des Vokabulars verfügbar gemacht. Der Austausch von Funktionalitäten über moving code und die semantischen Beschreibungen der Geooperatoren sind in einer Communityplattform integriert, die damit die Kollaboration zwischen Entwicklern und Anwendern verbessert [62, 63]. Grundsätzlich markieren die erste und zweite Ebene den heutigen Entwicklungsstand zur interoperablen Geoprozessierung, verlangen allerdings einen recht großen Grad an Geoinformatik-Expertise. Für die dritte Ebene, die eine deutlich größere Anwendergruppe etwa in wissenschaftlichen Geoinformationsinfrastrukturen adressiert, finden sich heute lediglich Forschungsansätze.

2.6

Austausch von interdisziplinären Umweltmodellen

Die Entwicklung von Ansätzen zum Austausch und zur Verknüpfung von Umweltsimulationsmodellen unterschiedlicher Disziplinen sowie deren Anbindung an Geoinformationssysteme sind seit langem ein Forschungsfeld in der Geoinformatik

5 Geodateninfrastrukturen

115

Abb. 10 Auszug einer conceptmap(nach [57]) von Geooperatoren (schwarz), Kategorien (transparent) und Perspektiven (grau). Perspektiven realisieren unterschiedliche fachliche Sichten auf die Kategorien und Geooperatoren:In der Perspektive GIS-Plattform sind Operatoren nach den unterschiedlichen Zuordnungen zu speziellen GIS (hier ArcGIS und Grass) organisiert; in der Perspektive Geodatenerfolgt die Organisation entsprechend der Prozessierungen, die typischerweise zur Geodatentransformation eingesetzt werden

[64–68]. Für die weitere Entwicklung wissenschaftlicher Geoinformationsinfrastrukturen (Abschn. 1.4) lassen sich dabei grob drei Strategien zum Austausch und zur Kopplung von Umweltmodellen unterscheiden: (1) Gemeinsame Modellentwicklungen haben zu einer Reihe sog. community models geführt und sind eine recht weit verbreitete Strategie. Ähnlich dem Vorgehen in Open-Source-Projekten entwickeln Gruppen aus einer oder mehreren Forschungseinrichtungen ein gemeinsames Modell innerhalb einer Fachdisziplin (z. B. das Weather Research & Forecasting Model, http://www.wrfmodel.org).

116

L. Bernard et al.

(2) Kopplung von Modellkomponenten mit dem Ziel auch Modelle unterschiedlicher Disziplinen in einer integrierten Anwendung nutzen zu können. Dabei gibt es unterschiedliche Strategien: Zum einen werden existierende Modelle modifiziert, um sie über standardisierte Schnittstellen koppeln zu können (z. B. unter Anwendung der IEEE Standards der High Level Architecture [69] oder des Open Modelling Interface, http://www.openmi.org/). Allerdings hat sich hier noch kein Ansatz umfassend etablieren können. Zum anderen werden integrierte Modelle (neu) entwickelt, um Modelle aus verschiedenen Disziplinen zu synthetisieren [70, 71]. In beiden Fällen sind die Entwicklungsaufwände recht groß, speziell wenn auch Rückkopplungen zwischen unterschiedlichen raumzeitvarianten Umweltmodellen möglich sein sollen. (3) Austausch von Simulationsergebnissen, der es Wissenschaftlern verschiedener Disziplinen erlaubt auf spezifische Simulationsergebnisse zuzugreifen. Die Ergebnisse stammen dabei entweder aus vorab ausgeführten Simulationsläufen (z. B. die verfügbaren Daten zu Klimaszenarien des International Panel on Climate Change, IPCC) und sollten entsprechend validiert und auf ihre Plausibilität geprüft worden sein. Oder ein (vor-parametrisiertes) robustes Modell erlaubt eine ad hoc Ausführung (z. B. ein Interpolationsmodel zur Berechnung von Schadstoffverteilungen aus Sensormessungen [72, 73]). Hier können die OGC Spezifikationen des Sensor Web Enablement genutzt werden, um ausführbare Modelle (Model as a Sensor) oder Simulationsergebnisse in GDI zu Verfügung zu stellen [68]. Ähnlich der verteilten Geoprozessierung definieren sich damit auch drei Interoperabilitätsebenen für den Austausch von Umweltsimulationsmodellen, die abhängig von den Nutzeranforderungen und Adaptionsfähigkeiten der Modelle sowie den verfügbaren Ressourcen eingesetzt oder kombiniert werden können. Für den Austausch von Umweltsimulationsergebnissen sind Informationen zu den zu Grunde liegenden Szenarien und Modellparametern ein relevanter Bestandteil der beschreibenden Metadaten und wesentlich für die Beschreibung von Umweltdaten in wissenschaftlichen Informationsinfrastrukturen. Die ISO Norm 19115 [74] beinhaltet hierfür das Lineage Element zur Beschreibung der Entstehungsprozesse und Eingangsdaten. In den meisten Anwendungen der ISO-Norm wird jedoch auf diese detaillierte Modellierung verzichtet, und die Historie ist bestenfalls als Freitext hinterlegt. Henzen et al. [75] zeigen wie unter Einhaltung der ISO-Norm die Entstehungsgeschichte der Simulationsergebnisse formalisiert modelliert und in Geokatalogen genutzt werden kann. Für jeden Datensatz können die beteiligten Simulationsmodelle, die jeweiligen Eingabedaten und wissenschaftlichen Veröffentlichungen beschrieben und durch Wissenschaftler recherchiert werden (Abb. 11). So wird nicht nur die Entstehung abgeleiteter Daten dokumentiert, sondern auch die Weiterverwendung eines Datensatzes in anderen Analyse- und Simulationsprozessen in den Metadaten erfasst. Die angepasste Geokataloganwendung bildet automatisiert aus den Metadaten die Entstehungsgraphen und ermöglicht den direkten Aufruf von Visualisierungsfunktionen und Zugriffsfunktionen zur Exploration und Nutzung der zeitvarianten Geodaten.

PROMET Department of Geography, LMU Munich

MODEL Department fuer Geographie, LMU Muenchen

DATASET PROMET

MODEL

MODEL

DATASET

DATASET

Abb. 11 Interaktive Visualisierung des Entstehungsgraphen eines Simulationsergebnisses (blau), der beteiligten Modelle (grün) und Eingabedaten unter Verwendung der ISO Normen und aktueller Geodatenkataloge. Das Beispiel ist dem Katalog der GLUES GDI [20] entnommen

Center for Global Trade Analysis, Purdue University.

GTAP 7 DATA BASE

DATASET

TU Dresden

DATASET GLUES REGIONS

ESA

DATASET GLOBCOVER 2009

NASA

DATASET USGS SRTM30

HWSD - HARMONIZED WORLD SOIL DATABASE International Institute for Applied Systems Analys...

DATASET

ECHAM5 A1B SCENARIO 1961-2040; 2071-2100 Ocean Circualtion & Climate Dynamics Marine Meteo...

DATASET

5 Geodateninfrastrukturen 117

118

L. Bernard et al.

Anwendungen dieser Art stoßen bei beteiligten Wissenschaftlern auf positive Resonanz und helfen insbesondere auch, den Mehrwert der Erfassung (formalisierter) Metadaten im Speziellen und der Anwendung wissenschaftlicher Informationsinfrastrukturen im Generellen zu vermitteln. Es zeigt sich aber ebenfalls, dass es selbst im Bereich der Metadaten (immer) noch ein weiter Weg bis zu der Erfüllung der von Craglia et al. [18] definierten Aufgaben zur Unterstützung multi-disziplinärer Umweltmodellierung ist [17]. Hier sind beispielsweise die Verbesserung der automatisierten Erfassung und Fortführung von Metadaten in wissenschaftlichen Anwendungen, die Erweiterungen von Standards für wissenschaftliche Belange, erweiterte Referenz-Vokabulare und Ontologien zum interdisziplinären Austausch sowie die Weiterentwicklung von Ansätzen zur Beschreibung der Modellannahmen und Unsicherheiten und deren Berücksichtigung in Analyseanwendungen zu nennen [17, 76, 77].

3

Fazit Geodateninfrastrukturen

GDI der ersten Generation zur Recherche, Visualisierung und Bezug von verteilt vorliegenden Geodaten sind mittlerweile weitgehend etabliert. Dabei können Kartendienste, Initiativen zu nutzergenerierten Geoinformation sowie administrative GDI grob unter Einsatz der in Abschn. 1 genannten grundlegenden Prinzipien kategorisiert werden (Abb. 12). Aktivitäten zum Aufbau wissenschaftliche Geoinformationsinfrastrukturen, die sich derzeit noch in einer Start- bzw. ersten Konsolidierungsphase befinden, bleiben diese bei der Kategorisierung außen vor. NutzerAdministrative Kartendienste generierte GeoGDI informationen Subsidiarität

--

-

++

Interoperabilität

-

o

+

Interdisziplinarität

o

o

-

Skalierbarkeit

++

-

o

Transparenz

--

++

++

Verlässlichkeit

-

-

o

Effizienz & Effektivität

++

+

--

Abb. 12 Grobe Kategorisierung heutiger Initiativen zum Austausch von Geoinformationen (vgl. Abschn. 1)

5 Geodateninfrastrukturen

119

Eine wesentliche Herausforderung für weitere GDI-Entwicklungen ist es, Strategien zu entwickeln, um die in dieser Kategorisierungen erkennbaren unterschiedlichen Stärken der jeweiligen Initiativen komplementär zu nutzen und generelle Schwächen zu beseitigen. Aktuelle Geoinformatikforschungen skizzieren dazu Ansätze. Etwa wie künftige GDI-Anwendungen bei zu erwartenden weiter wachsenden Geodatenmengen anfragegerecht aufbereiteter Geoinformationen liefern können oder zeigen das Potenzial von weiteren GDI-Entwicklungen für wissenschaftliche Informationsinfrastrukturen. Die Darstellung der in diesem Kapitel angerissenen Entwicklungen sollte repräsentativ sein, aber erhebt keinen Anspruch auf Vollständigkeit: Es gibt zahlreiche weitere, breitgefächerte Themen im GDI-Kontext (z. B. Usability, Anbindung an das Internet der Dinge, Smart Cities, robuste online Umweltsimulationen für Global Change Adaptionen, Sozioökonomische Betrachtungen zu Kosten-Nutzen, Data Democracy etc.), die auch zukünftig eine Menge spannender Forschungsfragen für die Geoinformatik erwarten lassen. Darüber hinaus ist auch die Ausbildung zur Schaffung entsprechender Geoinformatik-Expertise gefordert.

Literatur 1. Bernard, L., Fitzke, J., Wagner, R. (Hrsg.): Geodateninfrastrukturen – Grundlagen und Anwendungen. Wichmann, Heidelberg (2005) 2. Streuff, H., Kutterer, H.-J., Lenk, M., Rummel, R.: Geoinformation im internationalen Umfeld. In: Kummer, K., Kötter, T., Eichhorn, A. (Hrsg.) Das deutsche Vermessungs- und Geoinformationswesen, Bd. 2015. S. 193–251. Wichmann, Berlin (2014) 3. Gore, A.: The Digital Earth: Understanding Our Planet in the 21st Century (Speech held on January 31, 1998 in the California Science Center). Photogramm. Eng. Remote Sens. 65(5), 528–530 (1999) 4. Funde, P., Sun, J.: Web GIS: Principles and applications. ESRI Press, Redlands (2011) 5. Peterson, M.: Evaluating mapping APIs. In: Brus, J., Vondrakova, A., Vozenilek, V. (Hrsg.) Modern Trends in Cartography. Lecture Notes in Geoinformation and Cartography, S. 183–197. Springer International Publishing, Cham (2015) 6. Google: Examples Google Maps API. https://developers.google.com/maps/documentation/ javascript/examples/layer-kml. Zugegriffen am 30.04.2015 (2015) 7. Goodchild, M.F., Li, L.N.: Assuring the quality of volunteered geographic information. Spat Stat-Neth 1(0), 110–120 (2012). https://doi.org/10.1016/j.spasta.2012.03.002 8. Meier, P.: Digital humanitarians: How big data is changing the face of humanitarian response. CRC Press, Boca Raton (2015) 9. Goodchild, M.F., Glennon, J.A.: Crowdsourcing geographic information for disaster response: a research frontier. Int. J. Digit. Earth 3(3), 231–241 (2010). https://doi.org/10.1080/ 17538941003759255 10. OSM: OpenStreetMap Wiki. http://wiki.openstreetmap.org. Zugegriffen am 30.04.2015 (2015) 11. Barron, C., Neis, P., Zipf, A.: A comprehensive framework for intrinsic openStreetMap quality analysis. Trans. GIS 18(6), 877–895 (2014). https://doi.org/10.1111/tgis.12073 12. Wiemann, S., Bernard, L.: Linking crowdsourced observations with INSPIRE. In: Joaquin, H., Schade, S., Granell, C. (Hrsg.) Conference of the Association of Geographic Information Laboratories for Europe (AGILE), Castellón (2014) 13. Craglia, M., Shanley, L.: Data democracy – Increased supply of geospatial information and expanded participatory processes in the production of data. Int. J. Digit. Earth 1–15 (2015). https://doi.org/10.1080/17538947.2015.1008214

120

L. Bernard et al.

14. EC: Directive 2007/2/EC of the European parliament and of the council of 14 March 2007 establishing an infrastructure for spatial information in the European community (INSPIRE). In: Council, E.P.a.E. (Hrsg.) S. L 108/101 – L 108/114. Official Journal of the European Union (2007) 15. INSPIRE: INSPIRE spatial data services and services allowing spatial data services to be invoked. Draft Implementing Rules, Network Services Drafting Team, Version 3.0. http://inspire.ec. europa.eu/documents/Spatial_Data_Services/Draft_TG_for_INSPIRE_SDS_2.0.1.pdf. (2013) 16. WR: Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastrukturen in Deutschland bis 2020. Wissenschaftsrat, Berlin (2012) 17. Bernard, L., Mäs, S., Müller, M., Henzen, C., Brauner, J.: Scientific geodata infrastructures: challenges, approaches and directions. Int. J. Digit. Earth 7(7), 613–633 (2014). https://doi. org/10.1080/17538947.2013.781244 18. Craglia, M., de Bie, K., Jackson, D., Pesaresi, M., Remetey-Fulopp, G., Wang, C.L., Annoni, A., Bian, L., Campbell, F., Ehlers, M., van Genderen, J., Goodchild, M., Guo, H.D., Lewis, A., Simpson, R., Skidmore, A., Woodgate, P.: Digital Earth 2020: towards the vision for the next decade. Int. J. Digit. Earth 5(1), 4–21 (2012). https://doi.org/10.1080/17538947.2011.638500 19. Eppink, F., Werntze, A., Mäs, S., Popp, A., Seppelt, R.: Land management and ecosystem services: how collaborative research programmes can support better policies. GAIA – Ecol. Perspect. Sci. Soc. 21(1), 55–63 (2012) 20. Mäs, S., Henzen, C., Müller, M., Bernard, L.: GLUES GDI – Eine Geodateninfrastruktur für wissenschaftliche Umweltdaten. gis. SCIENCE 2014(4), 129–137 (2014) 21. Bernard, L., Hergert, A., Katerbaum, G., Schwarzbach, F., Taggeselle, J.: INSPIRE Umsetzung in der GDI Sachsen. In: Beiträge zum 16. Münchener Fortbildungsseminar 2011. Edition GIS. Events, S. 114–121 (2011) 22. Bernard, L., Brauner, J., Taggeselle, J.: Vorstudie zum Betriebskonzept der Geodateninfrastruktur des Freistaates Sachsen (GDI Sachsen) (2008) 23. Boehm, B.W.: A spiral model of software development and enhancement. Computer 21(5), 61–72 (1988). https://doi.org/10.1109/2.59 24. Usländer, T.: Service-oriented design of environmental information systems, Bd. 5. Karlsruher Schriften zur Anthropomatik. KIT Scientific Publishing, Karlsruhe (2010) 25. Trapp, N., Schneider, U.A., McCallum, I., Fritz, S., Schill, C., Borzacchiello, M.T., Heumesser, C., Craglia, M.: A meta-analysis on the return on investment of geospatial data and systems: A multi-country perspective. Trans. GIS 19(2), 169–187 (2015). https://doi.org/10.1111/tgis. 12091 26. Melzer, I.: Service-orientierte Architekturen mit Web Services. Spektrum Akademischer Verlag, Heidelberg (2010) 27. Fielding, R.T., Taylor, R.N.: Principled design of the modern web architecture. In: ICSE’00, S. 407–416. ACM, New York (2000) 28. Berners-Lee, T., Hendler, J., Lassila, O.: The semantic web. Sci. Am. 184, 34–43 (2001) 29. Shadbolt, N., Hall, W., Berners-Lee, T.: The semantic web revisited. IEEE Intell. Syst. 21, 96–101 (2006). https://doi.org/10.1109/MIS.2006.62 30. W3C: RDF 1.1 Primer, W3C Working Group Note 24 June 2014. https://www.w3.org/TR/ 2014/NOTE-rdf11-primer-20140624. Zugegriffen am 25.02.2016 31. W3C: SPARQL 1.1 Query Language. In: Harris, S., Seaborne, A. (Hrsg.) W3C (2013) 32. Pautasso, C., Zimmermann, O., Leymann, F.: Restful web services vs. „Big“ web services: making the right architectural decision. In: WWW’08, S. 805–814. ACM, New York (2008) 33. Auer, S., Lehmann, J., Hellmann, S.: LinkedGeoData: adding a spatial dimension to the web of data. In: Bernstein, A., Karger, D., Heath, T., Feigenbaum, L., Maynard, D., Motta, E., Thirunarayan, K. (Hrsg.) The Semantic Web – ISWC 2009, Bd. 5823. Lecture Notes in Computer Science, S. 731–746. Springer, Berlin/Heidelberg (2009) 34. Goodwin, J., Dolbear, C., Hart, G.: Geographical linked data: the administrative geography of Great Britain on the semantic web. Trans. GIS 12, 19–30 (2008). https://doi.org/10.1111/j. 1467-9671.2008.01133.x

5 Geodateninfrastrukturen

121

35. ISO: ISO 19108 International Standard on Geographic information – Temporal Schema. International Organization for Standardization (2002) 36. ISO: ISO 19107 International Standard on Geographic information – Spatial Schema. International Organization for Standardization (2003) 37. Brinkhoff, T.: Geodatenbanksysteme in Theorie und Praxis: Einführung in objektrelationale Geodatenbanken unter besonderer Berücksichtigung von Oracle Spatial. Wichmann VDE Verlag, Heidelberg (2013) 38. ISO: ISO 19109 International Standard on Geographic information – Rules for Application Schema. International Organization for Standardization (2005) 39. Reinwarth, S., Bernard, L.: Das Rule Interchange Format (RIF) für interoperable Schemamapping-Anwendungen. In: INSPIRE. gis.SCIENCE 2012(3), 109–117 (2012) 40. Lehto, L.: Schema Translations in a Web Service Based SDI. In: Wachowicz, M., Bodum, L. (Hrsg.) Conference of the Association of Geographic Information Laboratories for Europe (AGILE), Aalborg (2007) 41. Mohammadi, H., Rajabifard, A., Williamson, I.P.: Development of an interoperable tool to facilitate spatial data integration in the context of SDI. Int. J. Geogr. Inf. Sci. 24(4), 487–505 (2010). https://doi.org/10.1080/13658810902881903 42. OGC: OGC GeoSPARQL – A Geographic Query Language for RDF Data, 11-052r4. Open Geospatial Consortium, Inc. (2012) 43. Wiemann, S., Bernard, L.: Conflation Services within Spatial Data Infrastructures. In: Painho, M., Santos, M.Y., Pundt, H. (Hrsg.) 13th AGILE International Conference on Geographic Information Science, Guimarães, S. 1–8 (2010) 44. Wade, T., Sommer, S.: A to Z GIS: an illustrated dictionary of geographic information systems. ESRI Press, Redlands, California (2006) 45. Foerster, T., Schaeffer, B., Baranski, B., Brauner, J.: Geospatial web services for distributed processing: applications and scenarios. In: Zhao, P., Di, L. (Hrsg.) Geospatial Web Services: Advances in Information Interoperability, S. 245–286. IGI Global, Hershey (2011) 46. Janowicz, K., Schade, S., Bröring, A., Keßler, C., Maué, P., Stasch, C.: Semantic enablement for spatial data infrastructures. Trans. GIS 14, 111–129 (2010). https://doi.org/10.1111/j.14679671.2010.01186.x 47. Neteler, M., Mitasova, H.: Open Source GIS: A GRASS GIS Approach, 3. Aufl. Springer, New York (2007) 48. OGC: OGC Web Feature Service 2.0 Interface Standard – With Corrigendum. Open Geospatial Consortium (2014) 49. OGC: OpenGIS Web Coverage Processing Service (WCPS) Language Interface Standard 1.0.0. Open Geospatial Consortium (2009) 50. OGC: OGC WCS 2.0 Interface Standard – Core. Open Geospatial Consortium (2010) 51. OGC: OpenGIS Web Processing Service Vs. 1.0.0. Open Geospatial Consortium (2007) 52. OGC: OGC WPS 2.0 Interface Standard. Open Geospatial Consortium (2014) 53. Friis-Christensen, A., Ostländer, N., Lutz, M., Bernard, L.: Designing service architectures for distributed geoprocessing: challenges and future directions. Trans. GIS 11(6), 799–818 (2007). https://doi.org/10.1111/j.1467-9671.2007.01075.x 54. Brauner, J.: Anbindung von GIS-Funktionalitäten an eine Geodateninfrastruktur über eine Web Processing Service Schnittstelle. GIS Zeitschrift für Geoinformatik(3), 18–25 (2008) 55. Müller, M., Bernard, L., Kadner, D.: Moving code – Sharing geoprocessing logic on the Web. ISPRS J. Photogramm. Remote Sens. 83, 193–203 (2013). https://doi.org/10.1016/j.isprsjprs. 2013.02.011 56. Kadner, D., Müller, M., Brauner, J., Bernard, L.: Konzeption eines Marktplatzes für den Austausch von Geoprozessierungsimplementierungen. gis. SCIENCE 2012(3), 118–124 (2012) 57. Brauner, J.: Formalizations for geooperators – Geoprocessing in spatial data infrastructures. Ph.D. thesis, Technische Universität Dresden (2015) 58. W3C: SKOS simple knowledge organization system primer. In: Isaac, A., Summers, E. (Hrsg.) W3C (2009)

122

L. Bernard et al.

59. W3C: SKOS simple knowledge organization system reference. In: Miles, A., Bechhofer, S. (Hrsg.) W3C (2009) 60. W3C: Best practice recipes for publishing RDF vocabularies. In: Berrueta, D., Phipps, J. (Hrsg.) W3C (2008) 61. W3C: Cool URIs for the Semantic Web. In: Sauermann, L., Cyganiak, R. (Hrsg.) W3C (2008) 62. Henzen, C., Brauner, J., Müller, M., Henzen, D., Bernard, L.: Geoprocessing appstore. In: Bacao, F., Santos, M.Y., Painho, M. (Hrsg.) The 18th AGILE International Conference on Geographic Information Science, Lisbon (2015) 63. Kadner, D., Müller, M., Brauner, J., Bernard, L.: Konzeption eines Marktplatzes für den Austausch von Geoprozessierungsimplementierungen. gis.SCIENCE 2012, 118–124 (2012) 64. Bernard, L., Krüger, T.: Integration of GIS and spatio-temporal simulation models. Trans. GIS 4(3), 197–215 (2000). https://doi.org/10.1111/1467-9671.00049 65. Goodchild, M.F., Parks, B.O., Steyaert, L.T. (Hrsg.): Environmental Modeling with GIS. Oxford University Press, New York (1993) 66. Haubrock, S., Theisselmann, F., Rotzoll, H., Dransch, D.: Web-based management of simulation models – concepts, technologies and the users’ needs. In: Anderssen, R.S., Braddock, R.D., Newham, L.T.H. (Hrsg.) 18th World IMACS Congress and MODSIM09 International Congress on Modelling and Simulation, Cairns, S. 880–886 (2009) 67. Goodchild, M.F., Steyaert, L.T., Parks, B.O. (Hrsg.): GIS and Environmental Modeling: Progress and Research Issues. GIS World Books, Fort Collins (1996) 68. Maué, P., Stasch, C., Athanasopoulos, G., Gerharz, L.: Geospatial standards for web-enabled environmental models. Int. J. Spat. Data Infrastruct. Res. 6, 145–167 (2011) 69. IEEE: 1516 IEEE Standard for Modeling and Simulation (M&S) High Level Architecture (HLA) Framework and Rules Institute of Electrical and Electronics Engineers, New York (2010) 70. Voinov, A., Shugart, H.H.: ,Integronsters‘, integral and integrated modeling. Environ. Model. Softw. 39(0), 149–158 (2013). https://doi.org/10.1016/j.envsoft.2012.05.014 71. Beven, K.: Towards integrated environmental models of everywhere: uncertainty, data and modelling as a learning process. Hydrol. Earth Syst. Sci. 11(1), 460–467 (2007). https://doi. org/10.5194/hess-11-460-2007 72. Wiemann, S.S.R., Karrascha, P., Brauner, J., Pech, K., Bernard, L.: Classification-driven air pollution mapping as for environment and health analysis. In: Paper Presented at the iEMSs Sixth Biennial Meeting: International Congress on Environmental Modelling and Software (iEMSs 2012), Leipzig. International Environmental Modelling and Software Society (2012) 73. Stasch, C., Foerster, T., Autermann, C., Pebesma, E.: Spatio-temporal aggregation of European air quality observations in the Sensor Web. Computers & Geosciences 47, 111-118 (2012). https://doi.org/10.1016/j.cageo.2011.11.008 74. ISO: ISO 19115-2 International Standard on Geographic information – Part 2: Metadata for imagery and gridded data. International Organization for Standardization (2005) 75. Henzen, C., Mäs, S., Bernard, L.: Provenance information in geodata infrastructures. In: Vandenbroucke, D., Bucher, B., Crompvoets, J. (Hrsg.) Geographic Information Science at the Heart of Europe. Lecture Notes in Geoinformation and Cartography, S. 131–151. Springer, Heidelberg (2013) 76. Pebesma, E.J., de Jong, K., Briggs, D.: Interactive visualization of uncertain spatial and spatiotemporal data under different scenarios: an air quality example. Int. J. Geograph. Inf. Sci. 21(5), 515–527 (2007). https://doi.org/10.1080/13658810601064009 77. Jung-Hong, H., Min-Lang, H.: Interoperable GIS operations: a quality-aware perspective. In: Gensel, J., Josselin, D., Vandenbroucke, D. (Hrsg.) 15th AGILE International Conference on Geographic Information Science, Avignon (2012)

6

3D-Gebäudemodellierung und -generalisierung Martin Kada

Inhalt 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3D-Gebäudemodellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Randbeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Konstruktion mit Raumprimitiven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Blockmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Parametrische Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Zellenzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Halbraummodellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Semantische Modellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Iterative Formvereinfachung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Restriktionsgraph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Entfernung von Formelementen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Formeinpassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Gesamtheitliche Formvereinfachung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Ableitung von Teilungsebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Erzeugung einer Zellenzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Vereinigung zu 3D-Gebäudemodellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Weitere Generalisierungsvorgänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Symbolisierung und Typifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Aggregation und Fokussierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Kontinuierliche Detailstufenübergänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Vorverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Operationen und Restriktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

124 127 127 129 130 130 131 132 134 134 135 136 139 142 142 144 144 145 146 147 148 149 150

M. Kada () Institut für Geodäsie und Geoinformationstechnik, Technische Universität Berlin, Berlin, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_67

123

124

M. Kada

6.3 Transformationsreihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Diskussion und Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

150 152 153

Zusammenfassung

Gebäudeobjekte nehmen in 3D-Stadtmodellen eine zentrale Rolle ein. Da Anwendungen diese in unterschiedlichen Detaillierungsgraden benötigen, sind Methoden zur Generalisierung erforderlich, um die zunächst detailreichen 3DGebäudemodelle auf die geforderten Detailstufen zu bringen. Nach einem kurzen Überblick über verschiedene Möglichkeiten zur geometrischen und semantischen 3D-Gebäudemodellierung werden beispielhaft einige Verfahren vorgestellt, welche kartographische Generalisierungsvorgänge für 3D-Gebäudemodelle umsetzen. Schlüsselwörter

3D-Stadtmodelle · Gebäude · Modellierung · Generalisierung · Simplifizierung · Aggregation · Kartographie · Algorithmen

1

Einleitung

Aufgrund der rasanten Entwicklungen in den Sensor- und Auswertetechnologien sind insbesondere in den vergangenen zwei Jahrzehnten die Digitalisierung und Modellierung unserer Umwelt und urbaner Lebensräume in drei oder mehr Dimensionen förmlich explodiert. Automatische Methoden zur Erzeugung von digitalen 3D-Stadt- und Landschaftsmodellen sind deutlich gereift [55], so dass viele Städte und Länder diese als Geobasisdaten vorhalten, anbieten und in vielfältigster Art und Weise nutzen. Berlin, Stuttgart, Helsinki, Toronto, New York und Singapur sind nur einige Beispiele für sehr großflächige 3D-Stadtmodelle, in denen mehrere hunderttausend oder sogar Millionen von Gebäuden als einzelne Geoobjekte geometrisch und semantisch modelliert sowie gegebenenfalls mit (Schräg-)Luftbildern und terrestrischen Aufnahmen überzogen sind. Abb. 1 zeigt hierzu exemplarisch das 3D-Stadtmodell von Stuttgart. Neben der Modellierung von Gebäuden als diskrete Geoobjekte kommen vor allem in den letzten Jahren hochdetaillierte urbane 3DOberflächenmodelle hinzu, wie man sie auch von den populären Kartendiensten im Internet kennt. Obwohl sich diese optisch beeindruckend und realitätstreu präsentieren, sind sie, aufgrund der zugrundeliegenden Repräsentation als feingliedrige Dreiecksnetze und der demzufolge fehlenden semantischen Strukturierung in einzelne Objekte, für viele Anwendungsszenarien nur äußerst bedingt nutzbar. Einen umfassenden Überblick über Methoden zur automatischen Erzeugung von diskreten Gebäudemodellen sowie von kontinuierlichen Oberflächenmodellen mittels dichter Bildzuordnung im Kontext der urbanen 3D-Modellierung geben [11, 27] und [26]. 3D-Stadtmodelle dienen heutzutage als Datengrundlage für eine Vielzahl von Analyse-, Planungs- und (Echtzeit-)Visualisierungsanwendungen, wie Solar-,

6 3D-Gebäudemodellierung und -generalisierung

125

Abb. 1 3D-Stadtmodell von Stuttgart in der Ansicht auf das Neue Schloss und den dahinterliegenden Schlossplatz. (Quelle: Eigene Darstellung)

Schadstoff-, Lärm-, Überschwemmungs-, Energie- und Sichtbarkeitsanalysen, Mobilfunk- und Bauprojektplanung, standortbezogene Dienste, 3D-Karten und virtuelle Globen sowie Auto- und Fußgängernavigationssysteme. Eine umfassende Literaturrecherche hierzu findet sich in [5]. Neben Gelände, Straßen, Vegetation, Stadtmöblierung etc. sind insbesondere Gebäude ein wesentlicher Bestandteil von 3D-Stadtmodellen, bei deren Modellierung und Auswertung sich der Mehrwert der dritten räumlichen Dimension erst so richtig offenbart. Sie werden üblicherweise aus luftgestützt erfassten 3D-Punktwolken mittels (semi-)automatischen Methoden rekonstruiert. Aufgrund der unterschiedlichen Anforderungen von Seiten der Anwendungen werden 3D-Gebäudemodelle in verschiedenen Detailstufen (engl. levels of detail, LOD) nachgefragt. Da es aufgrund der hohen Kosten nicht wirtschaftlich erscheint, 3D-Stadtmodelle in verschiedenen Detailstufen zu produzieren, sollten diese sinnvollerweise mit einem möglichst hohen Detailreichtum erzeugt und bei Bedarf automatisch auf die gewünschte Detailstufe vereinfacht werden. Im Hinblick auf 3D-Stadtmodelle hat sich gezeigt, dass Techniken zur Flächensimplifizierung aus dem Bereich der Computergrafik nicht für die Generierung von Detailstufen für heute existierende 3D-Gebäudemodelle geeignet sind. Denn im Gegensatz zu den hochdetaillierten Dreiecksnetzen allgemein geformter Objekte, für welche diese Methoden entwickelt wurden, bestehen 3D-Gebäudemodelle in der Regel nur aus wenigen hundert, häufig sogar aus noch weniger, Polygonflächen. Die gebäudespezifischen geometrischen Eigenschaften, wie die meist koplanare, parallele und rechtwinklige Anordnung von Wandflächen sowie die symmetrische Neigung von Dachflächen, werden durch eine Flächensimplifizierung oft schon nach wenigen Vereinfachungsschritten verzerrt. Wird z. B. die populäre Methode von [21], welche den geometrischen Fehler jeder Vereinfachungsoperation

126

M. Kada

Abb. 2 Vergleich zwischen Flächensimplifizierung und kartographischer 3D-Generalisierung: (a) ursprüngliche Form eines 3D-Gebäudemodells (als Dreiecksnetz), (b) nach dem ersten sowie (c) zweiten Schritt der Flächensimplifizierung und als (d) Ergebnis einer geeigneten kartographischen Generalisierung. (Quelle: Eigene Darstellung)

mittels einer Fehlerquadrik quantifiziert, auf das einfach geformte, triangulierte 3DGebäudemodell in Abb. 2 angewendet, so werden zuerst die Flächen des Vorbaus, anschließend die des Gebäudes selbst, in nur wenigen Verarbeitungsschritten uneben und geneigt. Diese und ähnlich geartete Methoden scheitern vor allem an der niedrigen Detaillierung der 3D-Gebäudemodelle, so dass sie nicht in der Lage sind deren Detaillierung weiter zu verringern ohne die objektklassenspezifischen Eigenschaften zu verletzen. Sie sind demzufolge in ihrer ursprünglichen Form nicht für 3D-Generalisierungszwecke geeignet. Einen Überblick über die grundlegenden Konzepte zu Detailstufen und zur Flächensimplifizierung allgemeiner Dreiecksnetze finden sich in [8, 47]. Aus dieser Notwendigkeit heraus wurden in den letzten Jahren kartographische Generalisierungsmethoden speziell für 3D-Gebäudemodelle entwickelt. Im Vergleich zu den Methoden der Flächensimplifizierung bewahrt die kartographische 3D-Gebäudegeneralisierung strikt die Planarität von Flächen, deren Anordnung sowie die allgemeine Form von 3D-Gebäudemodellen (siehe bspw. Abb. 2d). Ein frühes und umfassendes Konzept für die regelbasierte Generalisierung semantisch strukturierter 3D-Gebäudemodelle wird in [58] vorgestellt. Seitdem wurden verschiedenste Verfahren präsentiert, welche neben der Simplifizierung und Symbolisierung von Einzelobjekten auch Generalisierungsvorgänge für Objektgruppen wie Aggregation, Betonung (durch Fokussierung) und Typifizierung umfassen. Neben verschiedenen Detailstufen werden Gebäude auch in einer Vielzahl von unterschiedlichen Modellierungsformen erzeugt, verwaltet und für Analysen genutzt. Dies ist darin begründet, dass jede Modellierungsform individuelle Eigenschaften aufweist, wodurch sie mal mehr oder mal weniger gut für eine Aufgabe geeignet ist. Nachfolgend soll daher in Abschn. 2 zuerst ein kurzer Überblick über die in der Geoinformationsverarbeitung – speziell im Kontext der 3D-Stadtmodelle – vorherrschenden Methoden zur 3D-Gebäudemodellierung gegeben werden. Daran anschließend werden in den Abschn. 3 und 4 exemplarisch zwei Verfahren zur kartographischen Formvereinfachung von 3D-Gebäudemodellen aufgezeigt, welche sich in ihren prinzipiellen Vorgehensweisen grundlegend unterscheiden. Dabei werden stets Bezüge zu anderen Forschungsarbeiten hergestellt. In Abschn. 5 schließen sich weiterreichende Generalisierungsvorgänge für Einzelobjekte und Objektgruppen

6 3D-Gebäudemodellierung und -generalisierung

127

an. Die Realisierung fließender Übergänge zwischen mehreren Detailstufen, womit sich kontinuierliche Detailstufen und progressive Schemata zur Speicherung und Übertragung umsetzen lassen, wird in Abschn. 6 beschrieben. Schließlich erfolgt in Abschn. 7 eine kurze Diskussion und Zusammenfassung.

2

3D-Gebäudemodellierung

In der Geoinformationsverarbeitung modelliert man Geoobjekte unter anderem mit geometrischen, topologischen und thematischen Attributen. Die geometrische Ausprägung von 3D-Gebäudemodellen kann in allen Varianten der so genannten Festkörpermodellierung erfolgen. Siehe hierzu bspw. [30] und [18]. Aufgrund ihrer unterschiedlichen Vor- und Nachteile kommen in der Praxis viele dieser Modellierungsformen zum Einsatz, teilweise in verschiedenen Kombinationen, um deren diverse Nachteile zu kompensieren. Neben der Randbeschreibung unterscheidet die Taxonomie von [48] zwischen den Dekompositionsmodellen und den konstruktiven Modellen. Bei den Dekompositionsmodellen wird der Körper bzw. dessen umschließender Raum in eine disjunkte Menge elementarer Primitive zerlegt. Komplexe 3D-Modelle werden aufgrund der hohen Anzahl der dafür notwendigen Primitive selten in einem vollständig manuellen Prozess erstellt, sondern resultieren aus Sensormessungen oder durch Konvertierung aus einer anderen Darstellungsform. Anders verhält es sich bei den konstruktiven Modellen, welche durch die Kombination von Grundkörpern entstehen und sich damit für einen konstruktiven Prozess eignen. Aufgrund der Form unterscheidet [20] parametrische, kombiniert parametrische, prismatische und polyedrische 3D-Gebäudemodelle (siehe Abb. 3). Brenner [11] ergänzt diese durch die regel- und freiformgeometrischen Modelle, welche aber in der Praxis vergleichsweise selten vorkommen. Gekrümmte Flächen werden zumeist durch eine Menge von planaren Flächen angenähert. Der Fokus soll daher im Folgenden auf 3D-Gebäudemodelle liegen, welche die Formen der vier erstgenannten Kategorien aufweisen, da diese die Mehrzahl der existierenden Modelle ausmachen. Modelle, die auf der rechnergestützten Konstruktion (CAD) oder der Bauwerksdatenmodellierung (BIM) basieren, werden hier nicht weiter berücksichtigt. Aufgrund der Anforderungen von Anwendungsseite aus, hat sich die Notwendigkeit ergeben, sowohl 3D-Stadtmodelle als auch die darin enthaltenen 3DGebäudemodelle semantisch zu strukturieren. Hierzu wurde CityGML als Standard ins Leben gerufen [23].

2.1

Randbeschreibung

Das unbestreitbar häufigste Schema, mit dem Gebäudemodelle dreidimensional repräsentiert werden, ist die Randbeschreibung (engl. boundary representation,

128

M. Kada

Abb. 3 Klassifikation von 3D-Gebäudemodellen nach [20] und [11]

Abb. 4 Randbeschreibung eines 3D-Gebäudemodells bestehend aus (a) Polygonen, deren Ränder durch (b) Kanten und (c) Knoten beschrieben sind. (Quelle: Eigene Darstellung)

B-Rep). Dabei wird ein Polyederkörper durch eine Menge von Polygonflächen repräsentiert, welche zusammen den Rand des Körpers bilden und diesen vollständig und lückenlos umschließen. Die Polygone können sowohl einzeln durch eine Koordinatenliste repräsentiert als auch als Einheit in einer topologischen Struktur aus Knoten, Kanten und Maschen eingebettet sein (siehe Abb. 4). Die Randbeschreibung ist damit identisch mit dem was in der Geoinformationsverarbeitung etwas unpräzise als Vektormodell bezeichnet wird und erfährt durch seine Schlichtheit, umfangreiche Softwareunterstützung und seinen Bezug zu Geodatenstandards eine hohe Beliebtheit. Insbesondere datengetriebene Verfahren zur (semi-)automatischen 3D-Rekonstruktion von Gebäuden auf Basis luftgestützt erfasster 3D-Punktwolken generieren häufig Modelle direkt in der Randbeschreibung. Bei der algorithmischen Konstruktion, der datenbanktechnischen Verwaltung und dem Austausch von 3D-Modellen in der Randbeschreibung muss jedoch äußerst präzise und sorgfältig vorgegangen werden, damit keine geometrischen und

6 3D-Gebäudemodellierung und -generalisierung

129

topologischen Fehler unbemerkt in den Modellen entstehen. Ansonsten sind nichtplanare, falsch orientierte, sich selbst oder gegenseitig überschneidende Flächen sowie Lücken in den Modellen die Folgen. Biljecki et al. [6] zeigen in diesem Zusammenhang einen bedenklichen Zustand heutiger 3D-Stadtmodelle, der sich vermutlich genau auf diese Problematik zurückführen lässt. Dabei könnten viele topologische und geometrische Fehler durch die Anwendung von Euler-Operatoren [14] und regularisierten Booleschen Operationen [54] vermieden werden.

2.2

Konstruktion mit Raumprimitiven

Die Konstruktion mit Raumprimitiven (engl. constructive solid geometry, CSG) wird häufig mit der Vorgehensweise gleichgesetzt, einfach geformte Primitive mit Hilfe von Booleschen Mengenoperationen zu komplexeren Formen zu kombinieren. Diese ungenaue Beschreibung trifft jedoch nicht den Kern dieser Modellierungsform, in der die hierarchische Organisation von Primitiven, Operationen und (euklidischen) Transformationen im Mittelpunkt steht. Abb. 5 zeigt den hierarchischen Konstruktionsbaum eines einfachen 3D-Gebäudemodells, welches durch Booleschen Vereinigungen (∪) und Differenzen (\) von Primitiven gebildet wird. Da sämtliche Primitive in Lage und Skalierung passend zueinander vorliegen, kann hier auf Transformationen verzichtet werden. Die Primitive verbleiben während des gesamten Konstruktionsprozesses explizit in den Blättern der Baumhierarchie, so dass sie jederzeit wieder verändert werden können. Dasselbe gilt auch für die

Abb. 5 Konstruktionsbaum eines 3D-Gebäudemodells. (Quelle: Eigene Darstellung)

130

M. Kada

Operationen und Transformationen in den inneren Knoten. Für Berechnungen und Visualisierungen muss der Baum traversiert und ausgewertet oder in eine andere Repräsentation wie der Randbeschreibung konvertiert werden. Obwohl einige automatische Rekonstruktionsverfahren bei der Erzeugung von 3D-Gebäudemodellen diesem Prinzip folgen, ist nicht bekannt, dass diese Modelle explizit in einer tiefen Hierarchie vorgehalten und exportiert werden, so dass die sich daraus ergebenden Vorteile z. B. für die 3D-Generalisierung nutzbar wären. Entsprechend findet man in der Praxis kaum solche Modelle. Thiemann [62] schlägt deswegen ein Konzept zur Zerlegung von 3D-Gebäudemodellen vor, um deren semantische Bestandteile vom Hauptkörper zu trennen und in eine konstruktive Hierarchie zu bringen. Ziel ist es, verschiedene Generalisierungsvorgänge wie Weglassen, Verdrängen, Betonen, Zusammenfassen und Typifizierung innerhalb dieser hierarchischen Struktur zu realisieren, indem z. B. unbedeutende Teilbäume bei der Auswertung unterdrückt werden.

2.3

Blockmodelle

Blockmodelle oder prismatische 3D-Gebäudemodelle (siehe Abb. 3) entstehen durch die Parallelverschiebung eines ebenen (Grundriss-)Polygons entlang der zur Grundebene senkrecht stehenden Gerade im Raum. In der Modellierung von Festkörpern spricht man auch von Extrusions- oder Translationskörpern, wobei diese im Allgemeinen mehr Freiheitsgrade erlauben als es im Anwendungsfall der 3D-Gebäudemodellierung notwendig ist. Der Grundriss kann beliebig komplex geformt sein sowie Löcher enthalten. Durch die Parallelverschiebung sind sämtliche vertikale Kanten des resultierenden geometrischen Körpers parallel und gleich lang, wodurch sich ein Flachdach konstanter Höhe ergibt. Aufgrund der Einfachheit bei deren Generierung sind 3D-Gebäude- und großflächige 3D-Stadtmodelle in dieser Form weit verbreitet. Kolbe et al. [41] zeigen am Beispiel von New York wie man allein mit Hilfe von frei verfügbaren Geobasisdaten eine Stadt als Blockmodell aufbauen kann. Sind die Gebäudegrundrisse zudem entlang der unterschiedlichen Höhenstufen in kleinere Polygone aufgeteilt, so stellen sich die daraus abgeleiteten Modelle durchaus beeindruckend dar. Es lassen sich aber auf diese Art und Weise nur wenige Gebäude, vor allem außerhalb der Zentren von Großstädten, exakt modellieren. Da die geometrischen Ausprägungen von Blockgebäuden hauptsächlich durch deren Grundrisse definiert sind, können diese durch Methoden der 2D-Grundrissgeneralisierung vereinfacht werden.

2.4

Parametrische Darstellung

Bei der parametrischen Darstellung werden die dreidimensionalen Formen von Festkörpern durch Parametersätze beschrieben, welche deren Typ, deskriptive Ausprägung sowie Lage und Orientierung im Raum definieren. Modellbasierte 3D-Rekonstruktionssysteme für Gebäude definieren bspw. Bibliotheken von sim-

6 3D-Gebäudemodellierung und -generalisierung

131

Abb. 6 Parametrisierte Instanzen unterschiedlicher 3D-Gebäudevorlagen. (Quelle: Eigene Darstellung)

plen Formvorlagen, welche zumeist rechteckige Grundrisse sowie verschiedene Standarddachformen aufweisen [9, 29]. Von diesen Vorlagen können dann verschiedene Primitive mit konkreten Parameterwerten instanziiert werden (siehe Abb. 6). Ein solches System gestaltet sich für menschliche Operateure aufgrund des semantischen Bezugs zu den Parametern als sehr intuitiv und erlaubt es ihnen nach kurzer Einarbeitungszeit komplex geformte Körper mit nur wenig Aufwand interaktiv zu konstruieren [39]. Da die Gebäudemodelle nur aus Parameterwerten bestehen, die zudem ausschließlich im System selbst eine Bedeutung aufweisen, können Modelle in parametrischer Darstellung nicht direkt miteinander zu komplexeren Gebäudeformen kombiniert werden, sondern müssen erst in eine andere Repräsentation wie der Randbeschreibung überführt werden.

2.5

Zellenzerlegung

Die Zellenzerlegung (engl. cell decomposition) ist die allgemeinste Form in der Gruppe der Dekompositionsmodelle. Komplexe Körper werden durch das Zusammenkleben einer Menge nahtlos aneinandergrenzender, aber nicht überlappender Zellen modelliert (siehe Abb. 7a). Obwohl die einzelnen Zellen topologisch äquivalent zu einer Kugel sein müssen, d. h. selbst keine Löcher aufweisen dürfen, können durch deren Kombination wiederum Festkörper mit Löchern modelliert werden. Da Zellen gekrümmte Oberflächen aufweisen dürfen, kann durch eine Zellenzerlegung jede beliebige Form ausgedrückt werden. Die Aufteilung in Zellen vereinfacht die Durchführung vieler Analysen, weshalb sie bspw. in der Methode der finiten Elemente zur Anwendung kommt. Obwohl 3D-Modelle in Zellenzerlegung in der Regel durch Konvertierung aus einer anderen Darstellungsform entstehen, findet diese Modellierungsform häufig in der Rekonstruktion von 3D-Gebäudemodellen Anwendung. Dies kann unter

132

M. Kada

Abb. 7 3D-Gebäudemodell als (a) Zellenzerlegung, (b) Zerlegung in Pultdachzellen und (c) vollständige Aufzählung von gleichförmigen Volumenelementen. (Quelle: Eigene Darstellung)

anderem dadurch erklärt werden, dass für die Kombination disjunkter Zellen statt der Booleschen Vereinigung die deutlich weniger komplexe Operation des Zusammenklebens ausreicht. Des Weiteren wird das Rekonstruktionsproblem zunächst auf die Zerlegung der Gebäudegrundrisse in Rechtecke oder Polygone reduziert, für die anschließend geeignete Dachformen gefunden werden. Rau und Chen [52] rekonstruieren 3D-Gebäudemodelle z. B. als eine Menge elementarer Polyederzellen, welche in der Höhe ausschließlich durch Flach- und Pultdächer begrenzt sind (siehe Abb. 7b). Kada und McKinley [37] kombinieren die Zellenzerlegung mit parametrischen Dachformen, während [64] beliebige Dachformen als eine Kombination mehrerer Dachebenen erlauben. Eine spezielle Abwandlung der Zellenzerlegung ist die vollständige Aufzählung (engl. spatial occupancy enumeration), bei dem die Festkörper mittels identischer Volumenelemente modelliert werden, die in einem festen regulären Gitter angeordnet sind (siehe Abb. 7c). Bei Verwendung würfelförmiger Volumenelemente spricht man auch vom Raster- oder Voxelmodell. Durch die reguläre Würfelstruktur können Objekte nicht exakt, sondern nur näherungsweise modelliert werden. Zum Beispiel lassen sich geneigte Dächer nur stufenförmig abbilden. Aus diesem Grund wird die vollständige Aufzählung selten für die 3D-Modellierung von Gebäuden verwendet. Die Erhöhung der räumlichen Auflösung hilft hier nur bedingt, da es das Problem nur auf eine andere Maßstabsebene verschiebt. Dennoch können Aufzählungsmodelle aufgrund ihrer Einfachheit und regelmäßigen Struktur sehr nützlich sein, z. B. als temporär genutzte Sekundärmodelle, da sich komplexe Berechnungen auf diesen Strukturen deutlich vereinfachen lassen.

2.6

Halbraummodellierung

Bei der Halbraummodellierung (engl. halfspace modeling) werden 3D-Objekte durch eine Menge von so genannten Halbräumen beschrieben, welche jeweils den Raum mittels einer Ungleichung in zwei Unterräume aufteilen. Sämtliche Punkte, welche die Ungleichung erfüllen, gehören zur Punktmenge des Halbraums und damit auch zum Körper. Die einfachen Grundformen der elementaren Halbräume, die auf diese Art und Weise definiert werden können, werden mittels der

6 3D-Gebäudemodellierung und -generalisierung

133

Booleschen Operatoren Vereinigung, Verschneidung und Differenz zu komplexeren Formen kombiniert. Bei der 3D-Gebäudemodellierung kommen bislang ausschließlich ebene Halbräume zum Einsatz. Durch die Verschneidung mehrerer dieser ebenen Halbräume werden z. B. konvexe Gebäudepolyeder gebildet (siehe Abb. 8), welche sich wiederum durch die Vereinigung zu konkaven Gebäudeformen kombinieren lassen (siehe Abb. 9). Diese starre Systematik ist jedoch nicht zwingend, sondern es lassen sich Halbräume vielmehr äußerst flexibel kombinieren. So kann die von [42] vorgeschlagene Aufteilung in allgemeine Dachformen, Dachterminale und Verbindungsstücke direkt als offene Mengen von Halbräumen realisiert werden, welche in beliebiger Kombination zu geschlossenen Körpern zusammengesetzt werden [39]. Da sich die 3D-Modellierung mit Halbräumen auf der rein symbolischen Ebene umsetzen lässt, ist generell keine algorithmische Geometrieverarbeitung notwendig. Als Symboloder Zeichenketten lassen sich darüber hinaus auch Ersetzungssysteme nutzen, um

Abb. 8 Modellierung eines konvex geformten 3D-Gebäudemodells mit Satteldach durch die Verschneidung von sieben (durch Ebenen definierte) Halbräume, die jeweils den (halben) Raum hin zum Gebäudekörper beschreiben. (Quelle: Eigene Darstellung)

Abb. 9 Modellierung eines konkav geformten 3D-Gebäudemodells mit Volutengiebel durch die Vereinigung zweier konvex geformter Halbraummodelle: (a) Volutengiebel, (b) Satteldach und (c) resultierendes 3D-Gebäudemodell. (Quelle: Eigene Darstellung)

134

M. Kada

Sprachen zur Beschreibung von Gebäudemodellen mit progressiven Detailstufen zu definieren [36]. Als eine hierarchische Abwandlung der Halbraummodellierung kann man die binäre Raumpartitionierung (engl. binary space partitioning, BSP) auffassen. Der 3D-Raum wird dabei rekursiv entlang von Ebenen in jeweils zwei Unterräume aufgeteilt, die fortan unabhängig voneinander betrachtet werden. Dabei kommt es häufig vor, dass die Flächen des 3D-Modells aufgeteilt werden müssen und in unterschiedlichen Teilen der Baumstruktur landen. Sohn et al. [60] rekonstruieren z. B. Gebäude, indem zunächst eine 2D-Raumpartitionierung der Grundrisse generiert wird und die sich daraus ergebenden konvexen Raumeinheiten nach oben hin durch jeweils eine Ebene begrenzt werden. Da zwischen Raumeinheiten, die in unterschiedlichen Teilräumen liegen, keine direkten Nachbarschaftsbeziehungen mehr bestehen, ist es aufwendig damit regularisierte 3D-Gebäudemodelle zu erstellen.

2.7

Semantische Modellierung

Neben der Modellierung geometrischer Ausprägungen besteht von Seiten der Anwender die Notwendigkeit 3D-Stadtmodelle und deren Bestandteile, wie Gebäude, Gelände, Vegetation, Straßen, Stadtmöblierung, Gewässer etc. semantisch zu strukturieren und zu modellieren. Zu diesem Zweck existiert seit 2008 der internationale Standard CityGML des Open Geospatial Consortium. Als multiskalige Repräsentation konzipiert, erlaubt CityGML die verlustfreie Speicherung und den interoperablen Austausch der Geometrie, Topologie und Thematik von 3D-Gebäudemodellen in fünf fest definierten Detailstufen: Grundfläche (LOD0), Blockmodell (LOD1), Modell mit Dachstrukturen (LOD2), Modell mit Fassadendetails (LOD3) und Modell mit Innenräumen (LOD4). Dabei erfolgt die geometrische Modellierung stets in der Randbeschreibung. Eine umfassende Auseinandersetzung mit dem CityGML Standard und dessen Anwendung erfolgt in [13]. In den letzten Jahren wurde häufig kritisiert, dass das Detailstufenkonzept von CityGML zu restriktiv sei. Biljecki et al. [7] schlagen deswegen eine Erweiterung auf 16 Detailstufen vor. Löwner et al. [46] empfehlen das Konzept der Multirepräsentationen als ein Metamodell für die Definition des Detailstufenkonzepts zu etablieren, welches auch benutzerdefinierte Detailstufen erlaubt. Für die Generalisierung von CityGML-konform strukturierten 3D-Gebäudemodellen wurden Arbeitsabläufe und Regeln vorgeschlagen, mit denen sich der Übergang zwischen den verschiedenen Detailstufen auf semantischer Ebene realisieren lässt [4, 15, 49].

3

Iterative Formvereinfachung

Das Ziel der kartographischen Formvereinfachung von 3D-Gebäudemodellen ist, deren geometrische Ausprägung zu vereinfachen und dabei die gebäudetypische Anordnung von Flächen sowie die globale Form des Objekts zu bewahren. Bei der

6 3D-Gebäudemodellierung und -generalisierung

135

iterativen Vorgehensweise geschieht dies allgemein durch die wiederholte Anwendung eines oder mehrerer Generalisierungsoperatoren, bis das kleinste geometrische Element im Objekt die gegebenen Schwellwerte überschreitet. Nachfolgend soll exemplarisch ein Verfahren vorgestellt werden, welches ein 3D-Gebäudemodell in Gestalt eines Polyeders in Randbeschreibung akzeptiert und dieses in drei Etappen vereinfacht: Zuerst werden die geometrischen Eigenschaften des Objekts untersucht, um daraus Restriktionen im Hinblick auf die Formvereinfachung abzuleiten und diese als Graph zu modellieren. Anschließend erfolgt die Formvereinfachung, bei der wiederholt Simplifizierungsoperationen unter Einhaltung der abgeleiteten Restriktionen solange auf dem Modell ausgeführt werden, bis das Modell einem Satz festgelegter Generalisierungskriterien genügt. Zum Schluss erfolgt optional noch eine Formeinpassung, bei der das vereinfachte Modell an die Lage und Größenverhältnisse des Originalmodells angeglichen wird.

3.1

Restriktionsgraph

Im Vergleich zu den Methoden der Flächensimplifizierung, bei denen die Minimierung der geometrischen und visuellen Änderungen der 3D-Modelle Vorrang hat, ist ein wesentliches Merkmal kartographischer Generalisierungsverfahren, dass sie insbesondere die objektklassenspezifischen Eigenschaften strikt bewahren. Für 3D-Gebäudemodelle wurden bislang ausschließlich die Lagebeziehungen Koplanarität, Parallelität und Rechtwinkligkeit zwischen zwei oder mehr Polyederflächen betrachtet. Denkbar sind aber sowohl weitere elementare Eigenschaften bzgl. der Winkel und der Distanzen zwischen zwei Flächen, als auch objektinhärente Symmetrien. Idealerweise stammen diese objektspezifischen Eigenschaften aus der (Re-)Konstruktion der 3D-Gebäudemodelle, wie dies bspw. von [10] in Form der „schwachen Primitive“ für die Zerlegung von 2D-Grundrissen vorgestellt wurde. Sind diese Informationen jedoch nicht vorhanden, so müssen sie zuerst auf Basis der Ebenengleichungen der Polyederflächen des Modells abgeleitet werden. Anschließend werden die gefundenen Eigenschaften in einem Restriktionsgraphen modelliert, bei dem die Flächen als Knoten und die paarweisen Eigenschaften als Kanten zwischen den entsprechenden Knoten repräsentiert werden. Abb. 10 zeigt beispielhaft den Ausschnitt eines Restriktionsgraphen für ein Gebäude mit vorstehender Ausbuchtung. Stehen mehr als zwei Flächen durch eine geometrische Eigenschaft in Beziehung, z. B. um symmetrische Gebäudeteile zu beschreiben, so können mehrere Flächen zu einem übergeordneten Knoten zusammengefasst werden. Eigenschaften zwischen Gebäudeteilen können dann wieder paarweise zwischen diesen Gruppenknoten modelliert werden. Um die Anzahl der später effektiv zu beachtenden Restriktionen möglichst gering zu halten, können die Kanten eines Graphen mit Gewichten versehen und dieser z. B. mit dem Algorithmus von [43] auf dessen minimales Gerüst reduziert werden. Die Gewichte der Kanten spiegeln dabei die Komplexität wider, die eine Überprüfung nach sich ziehen würde. Die im Graphen modellierten Restriktionen dürfen durch die geometrischen Generalisierungsoperationen nicht verletzt werden. Damit jedoch überhaupt

136

M. Kada

Abb. 10 3D-Gebäudemodell mit Ausschnitt eines Restriktionsgraphen: (a) 3D-Gebäudemodell, (b) vollständiger Restriktionsgraph und (c) minimales Gerüst. (Quelle: Eigene Darstellung)

Operationen ausgeführt werden können, insbesondere wenn alle Flächen des Modells miteinander in Beziehung stehen, ist es erlaubt, Restriktionen zusammen mit den assoziierten Flächen zu löschen oder diese aufzuweichen, indem bspw. eine Parallelität in eine Koplanarität umgewandelt wird. Die Generalisierungsmethode definiert, welche Änderungen erlaubt und wie die Restriktionen simultan zu den geometrischen Veränderungen nachzuführen sind. Hierbei kann auch eine Ordnung definiert werden, in der die Restriktionen verändert werden dürfen, wodurch sich implizit eine Reihenfolge in der Ausführung der Generalisierungsoperationen ergibt.

3.2

Entfernung von Formelementen

Nachdem die Rahmenbedingungen in Form des Restriktionsgraphen geschaffen sind, kann nun die eigentliche Formvereinfachung erfolgen. Bekannte Operationen für die Simplifizierung von Dreiecks- und Polygonnetzen, welche zwei oder mehr Eckpunkte nach geometrischen Gesichtspunkten zusammenziehen, sind für sich genommen jedoch nicht mächtig genug, um die Restriktionen eines 3DGebäudemodells zu bewahren. Sie können allerdings zu übergeordneten Operationen kombiniert werden, welche als Einheit in der Lage sind semantische Gebäudeteile in einem untrennbaren Verarbeitungsschritt zu eliminieren. Als grundlegende Operationen kommen hier der Halbkantenkollaps [40] und die Kantenverkürzung zum Einsatz (siehe Abb. 11). Bei einem Halbkantenkollaps wird einer der beiden inzidierenden Knoten einer Dreiecksnetzkante, in Abb. 11a fett dargestellt, auf die Position des anderen Knotens geschoben (siehe Abb. 11b). Dadurch degeneriert die Kante zu einem Punkt und die beiden angrenzenden Dreiecke zu einer Linie, wobei jeweils zwei Kanten dieser Dreiecke direkt übereinander zum Liegen kommen. Es können folglich ein Knoten, drei Kanten und zwei Dreiecke aus dem Dreiecksnetz entfernt werden.

6 3D-Gebäudemodellierung und -generalisierung

137

Abb. 11 Grundlegende Operationen zur Formvereinfachung: (a) ursprüngliches Dreiecksnetz, (b) Halbkantenkollaps, (c) allgemeiner Kantenkollaps und (d) Kantenverkürzung. (Quelle: Eigene Darstellung)

Im Vergleich dazu verläuft der Kantenkollaps topologisch identisch, jedoch werden beide Knoten auf eine gemeinsame neue Position verschoben [31] (siehe Abb. 11c). Dies erlaubt es bei der Vereinfachung eines Dreiecksnetzes die Knotenposition so zu wählen, dass die geometrische Veränderung möglichst geringgehalten ist. Vergleichbare Operationen können auch für Polygonnetze definiert werden. Bei einer Kantenverkürzung bewegt sich eine der beiden inzidierenden Knoten einer Dreiecksnetzkante entlang des geometrischen Verlaufs dieser Kante auf den anderen Knoten zu, ohne dessen Position zu erreichen (siehe Abb. 11d). Die Kante verkürzt sich dadurch, aber das Dreiecksnetz bleibt topologisch unverändert. In Anlehnung an den Ansatz von [61] zur Generalisierung von 2D-Gebäudegrundrissen wird in dem aufgezeigten Ansatz das Polyedernetz aufgrund geometrischer Kriterien nach bestimmten Formelementen durchsucht und das Modell mit speziell auf diesen Formelementen ausgelegten Operationen lokal vereinfacht. Häufig vorkommende Formelemente sind bspw. Versatz, Ein- und Ausbuchtung (mit polygonaler Vorderseite), Ecke, Kerbe, Spitze etc. Es werden daher alle Flächen, Kanten und Eckpunkte untersucht und mit jeweils einem Satz von geometrischen und topologischen Kriterien überprüft, der das Formelement eindeutig beschreibt. Dabei kommt dem Ansatz zu Gute, dass Gebäude aufgrund bau- und wohntechnischer Gründe wiederkehrende Fassaden- und Dachstrukturelemente aufweisen, die zudem häufig rechtwinklig sowie symmetrisch geformt sind. Eine Ausbuchtung (siehe Abb. 12) wird bspw. mit Hilfe der zwei folgenden simplen Regeln äußerst zuverlässig erkannt: 1. Der Schnittwinkel zwischen Vorder- und Seitenflächen muss ca. 90◦ betragen. 2. Sämtliche an die Vorderfläche grenzende Kanten, die nicht selbst Teil der Vorderfläche sind, müssen vollständig hinter der Vorderfläche liegen. Bei der Winkelprüfung kann eine geringe Toleranz erlaubt werden, um den häufig vorkommenden geometrischen Ungenauigkeiten in 3D-Gebäudemodellen entgegenzuwirken. Da kein bestimmter Winkel zu den nach oben und unten

138

M. Kada

Abb. 12 Schrittweise Formvereinfachung einer Ausbuchtung [34]

angrenzenden Flächen gefordert ist, können diese auch stärker geneigt sein wie im Falle angrenzender Dachflächen. Bei der iterativen Formvereinfachung wird nun wiederholt aus der Menge der gefundenen Formelemente jenes mit der geringsten Bedeutung gewählt und auf diesem die Formvereinfachungsoperationen ausgeführt, bis das Modell keine solcher Formelemente mehr aufweist. Hierzu ist eine geeignete Funktion notwendig, auf deren Grundlage sich die verschiedenen Formelemente quantitativ bewerten und ordnen lassen. Im Beispielverfahren stellt sich dies als die maximale Differenzlänge aller Kanten dar, die als Folge der zugehörigen Vereinfachungsoperation auftreten würde. Die Formvereinfachung einer Ausbuchtung erfolgt durch die kombinierte Anwendung der Halbkantenkollaps- und Kantenverkürzungsoperationen auf die inzidierenden Kanten der Vorderseite der Ausbuchtung, so dass die Vorderseite (und damit auch die darauf liegenden Eckpunkte) parallel nach hinten verschoben wird. Die Verschiebung erfolgt dabei bis zu der Position, an der die erste Kante vollständig kollabiert ist. Dabei muss es sich nicht zwangsläufig um die kürzeste Kante handeln, sondern um diejenige mit der geringsten Lotfußpunktdistanz zu der Ebene, welche durch die Vorderseite aufgespannt wird. Konkret bedeutet dies, dass auf sämtliche Kanten, deren zweiter Eckpunkt diese Lotfußpunktdistanz aufweist, ein entsprechender Halbkantenkollaps ausgeführt wird und auf alle anderen Kanten ein Kantenverkürzungsoperator. Abb. 12 zeigt die schrittweise Entfernung einer Ausbuchtung, wobei in diesem Fall die Anwendung von Halbkantenkollapsen ausreichend ist. Kantenverkürzungen wären z. B. erforderlich, wenn eine der beiden in Abb. 12 grau dargestellten Flächen hinter der anderen grauen Fläche liegen würde, so dass nicht alle Kanten der beigefarbenen Ausbuchtung dieselbe Länge aufweisen. Dies kommt häufig bei Ausbuchtungen direkt an Gebäudeecken vor. Würden in einem solchen Fall alle Kanten der Ausbuchtung mittels Kantenkollaps entfernt, so würde sich durch die Bewegung entlang der ungleich langen Kanten die Vorderfläche verdrehen oder sogar falten. Weitere Operationen zur iterativen Formvereinfachung werden bspw. von [19] und [65] vorgeschlagen, welche unter anderem auf der Parallelverschiebung von Flächen und der Orthogonalisierung von Wand- und Dachstrukturen basieren. Rau et al. [53] kombinieren zwei Kantenkollapsoperationen, wodurch, ohne Berücksichtigung von rechtwinkligen Gebäudestrukturen, zu kurze Wandelemente eliminiert werden. Li et al. [45] entfernen innerhalb von Flächen liegende Eckpunkte und schließen die dadurch entstehenden Löcher mittels einer Dreieckszerlegung.

6 3D-Gebäudemodellierung und -generalisierung

139

Für 3D-Gebäudemodelle ohne Fassadendetails, d. h. deren Fassadengeometrie sich ausschließlich aus dem Grundriss und einer Dachhöhe definiert, kann die Generalisierung in zwei Verarbeitungsschritten erfolgen. Die Komplexität der 3D-Generalisierung reduziert sich somit auf eine 2D-Generalisierung des Grundrisspolygons und einer 2,5D-Vereinfachung der Dachpolygonstruktur. Sind beide Schritte unabhängig voneinander, so müssen die Teilergebnisse anschließend jedoch geeignet kombiniert und adjustiert werden, wodurch sich auch der Begriff des „dreistufigen Ansatzes“ begründen lässt. Entsprechende Operatoren zur iterativen Formvereinfachung sowie Methoden zur Integration der Teilergebnisse werden in [16] sowie in [4] vorgeschlagen.

3.3

Formeinpassung

Durch die Reduzierung des Detailgrads kann es vorkommen, dass die 3D-Gebäudekörper nicht mehr den ursprünglichen Raum einnehmen. Werden z. B. auf einer Seite eines Objekts Ausbuchtungen in die Fassaden gedrückt und auf der anderen Seite Einbuchtungen in dieselbe Richtung nach außen gezogen, so verschiebt sich das Gebäude, bezogen auf die Lage des Grundrissschwerpunkts, in genau diese Richtung. Werden bspw. bei der Formvereinfachung des in Abb. 13a dargestellten Gebäudes die drei kleinen Einbuchtungen auf der linken Seite aufgefüllt und die zwei großen Vorsprünge auf der rechten Seite entfernt, so verkleinert sich das generalisierte Gebäudemodell und nimmt mehrheitlich den linken Raum des Originalgrundrisses ein (siehe Abb. 13b). Gleichzeitig bleibt die Lage der Firstlinie bestehen, so dass der First nicht mehr zentriert ist und die Dachseiten unterschiedlich lang sind. Es können folglich vorhandene Gebäudesymmetrien durch die Entfernung von Formelementen verlorengehen und sich geometrische Eigenschaften (Volumen, Fläche von Fassade und Dach, Lage des Schwerpunkts etc.) ändern. Selbst bei einer ausgeglichenen Veränderung von Formelementen könnte dieser Effekt nicht vollständig vermieden werden. Um dem entgegenzuwirken kann eine Formeinpassung an die originale Objektgeometrie erfolgen (siehe Abb. 13c), wobei erwartungsgemäß nicht mehr sämtliche Eigenschaften gänzlich wiederhergestellt werden können (siehe [17]). Die Einpassung kann sowohl ein integraler Bestandteil der Generalisierungsmethode als auch ein nachgeschalteter, eigenständiger Verarbeitungsschritt wie in [50] sein. Bei der Formeinpassung des Gebäudes in Abb. 13 wurden bspw. die linke und die rechte Fassadenseite nach rechts verschoben, so dass die Symmetrie des Satteldaches unter Beibehaltung der Lage der Firstlinie wiederhergestellt wurde, sowie die Größe des generalisierten Grundrisses erhalten blieb. In jedem Fall ist eine Zuordnung zwischen den geometrischen Bestandteilen des ursprünglichen und denen des generalisierten 3D-Gebäudemodells notwendig. Bei der vorgestellten iterativen Formvereinfachung wird zu Anfang der Formvereinfachung mit jedem Eckpunkt ein so genannter innerer Punkt assoziiert, welcher die ursprünglichen Koordinaten des Eckpunkts konstant vorhält. Wird durch die Anwendung eines Generalisierungsoperators ein Eckpunkt aus dem

140

M. Kada

Abb. 13 Formeinpassung eines generalisierten 3D-Gebäudemodells: (a) Originalgebäude, (b) generalisiertes Gebäude vor und (c) nach der Formeinpassung. (Quelle: Eigene Darstellung)

Modell entfernt, so regelt die Operation, wie der innere Punkt des betroffenen Eckpunkts den angrenzenden oder nahegelegenen Flächen zuzuordnen ist. Im Fall der oben beschriebenen Operation zur Entfernung von Ausbuchtungen werden die inneren Punkte aller Eckpunkte, die durch einen Halbkantenkollaps entfernt werden, der inzidierenden Vorderfläche zugeordnet. In Folge dessen sind sämtliche Eckpunktkoordinaten des ursprünglichen Polyedermodells als innere Punkte mit mindestens einer Fläche des simplifizierten 3D-Gebäudemodells assoziiert. Die tatsächliche Formeinpassung erfolgt mittels Ausgleichung nach der Methode der kleinsten Quadrate. Zu diesem Zweck wird die geometrische Lage der Flächen und Eckpunkte des formvereinfachten 3D-Gebäudemodells in ein funktionales Modell überführt, welches aus Ebenengleichungen in Koordinatenform sowie Schnittpunktkoordinaten besteht. Jede Gruppe von koplanaren Flächen des 3D-Gebäudemodells geht als eine Ebenengleichung und jeder Eckpunkt als ein Schnittpunkt in das funktionale Modell ein. Das funktionale Modell des formvereinfachten 3D-Gebäudemodells mit Satteldach aus Abb. 13b besteht bspw. aus sieben Ebenengleichungen und zehn Schnittpunkten. Die inneren Punkte von Flächen werden als Beobachtungen für diejenigen Ebenengleichungen angesetzt, aus denen diese Ebenengleichungen entstanden sind. Darüber hinaus werden die geometrischen Restriktionen aus dem Restriktionsgraphen als Bedingungen mit in das formale Modell integriert. Durch die Ausgleichung werden sowohl die Parameter der Ebenengleichungen in Hinblick auf die inneren Punkte als auch die Lage der

6 3D-Gebäudemodellierung und -generalisierung

141

Schnittpunkte optimiert. Durch unterschiedliche Gewichtung von Bedingungstypen kann der Einfluss einzelner Faktoren gesteuert werden, so dass bspw. eindeutige Schnittpunkte gegenüber strikt parallelen Gebäudeflächen favorisiert werden. Es ist noch zu beachten, dass die Ausrichtung mindestens einer Fassadenebene möglichst fest vorgegeben werden sollte, um die Ausrichtung des Gebäudes zu fixieren. Ansonsten kann es vorkommen, dass die Formeinpassung das 3D-Gebäudemodell leicht dreht. Natürlich schränkt dies die Bewegungsfreiheit der Ebene selbst, aber auch sämtlicher Ebenengleichungen, die über Restriktionen mit dieser verknüpft sind, zum Teil erheblich ein. Abschließend werden die resultierenden Koordinaten der Schnittpunkte auf die Eckpunkte des Polyedermodells übertragen. Abb. 14 zeigt Ergebnisse der iterativen Formvereinfachung am Beispiel des Neuen Schlosses von Stuttgart (vgl. Abb. 1). Allein durch die Entfernung von Ausbuchtungen konnte die geometrische Komplexität, gemessen an der zur Beschreibung des Körpers notwendigen Dreieckszahl, von 2727 auf 1837 Dreiecke reduziert werden. Durch die aufgebrachten Texturen ist der visuelle Unterschied zum ursprünglichen Modell kaum wahrnehmbar. Für eine weiterführende Formvereinfachung ist die Definition und Anwendung von weiteren Operationen notwendig. Die Qualität der Ergebnismodelle bei der schrittweisen Formvereinfachung ist direkt abhängig von der Art und Reihenfolge der eingesetzten Operationen. Dabei kann es durchaus vorkommen, dass der Generalisierungsvorgang einen Zustand erreicht, in dem keine der zur Verfügung stehenden Operationen in der Lage ist die Form des 3D-Gebäudemodells weiter zu vereinfachen. Der Generalisierungsvorgang steckt damit fest, obwohl theoretisch eine geometrisch weiter vereinfachte 3D-Gebäudeform möglich wäre. Je spezialisierter die Operationen definiert sind, desto wahrscheinlicher wird der Generalisierungsvorgang auf eine solche unvorhergesehene Situation stoßen.

Abb. 14 Originalmodelle (oben) und Ergebnisse der iterativen Formvereinfachung (unten) am Beispiel des Neuen Schlosses von Stuttgart [32, 34]

142

4

M. Kada

Gesamtheitliche Formvereinfachung

Im Gegensatz zur schrittweisen Formvereinfachung kann die Generalisierung auch gesamtheitlich erfolgen, indem in einem unteilbaren Vorgang ein formvereinfachtes Abbild des Gebäudes von Grund auf neu konstruiert wird. Dabei wird das 3D-Gebäudemodell nicht lokal bearbeitet, sondern die Formvereinfachung erfolgt auf einer globaleren Ebene. Damit entfällt auch das Problem, dass der Generalisierungsvorgang unvollendet steckenbleibt. Das hier vorgestellte Generalisierungsverfahren erzeugt formvereinfachte 3D-Gebäudemodelle, indem es aus den Flächen des ursprünglichen Polyedermodells eine möglichst minimale Menge von Ebenen ableitet, den dreidimensionalen Raum entlang dieser Ebenen zerteilt und nur die resultierenden Zellen, die eine hohe Relevanz besitzen, für das Ergebnis wieder zusammenfügt. Abb. 15 zeigt beispielhaft das 3D-Gebäudemodell des Neuen Schlosses von Stuttgart, die Zerlegung des 3D-Raums entlang von Ebenen in vereinfachte Polyederzellen und das zusammengefügte Ergebnismodell. Zur besseren Übersicht wird hier auf die Darstellung der Teilungsebenen verzichtet und die Zellen der Zellenzerlegung räumlich auseinandergefächert.

4.1

Ableitung von Teilungsebenen

Setzt man bei diesem Generalisierungsansatz für jede Fläche des 3D-Gebäudemodells eine Ebene an, so wird eine Zellenzerlegung erzeugt, aus der sich erneut das Ausgangsmodell ergibt. Die Formvereinfachung resultiert erst durch eine Verringerung in der Anzahl dieser Ebenen. Es gilt also in einem ersten Schritt die Flächen geschickt zu gruppieren und aus jeder Gruppe nur eine Teilungsebene abzuleiten, welche die ursprünglichen Flächen hinreichend genau, gemäß festgelegter Parameter, approximiert. Hierzu sind verschiedene Strategien denkbar, die zu Gruppierungen und damit zu Teilungsebenen mit unterschiedlichen Eigenschaften führen.

Abb. 15 Konzept der gesamtheitlichen Formvereinfachung mittels Zellenzerlegung: (a) Ursprüngliches 3D-Gebäudemodell, (b) Zellenzerlegung entlang approximierender Ebenen und (c) generalisiertes Ergebnismodell. (Quelle: Eigene Darstellung)

6 3D-Gebäudemodellierung und -generalisierung

143

Eine einfache, aber effektive Strategie wählt jeweils die vom Flächeninhalt größte Fläche und erzeugt eine Teilungsebene entlang dieser Fläche. Befinden sich weitere Flächen, die nicht Teil einer anderen Gruppe sind, vollständig innerhalb eines festgelegten Abstands zu der entsprechenden Teilungsebene, so bilden diese zusammen mit der ersten Fläche eine Gruppe. Existieren weitere Flächen ohne Gruppenzuordnung, so startet der Algorithmus von Neuem, wobei zuerst Flächen gewählt werden, die zu allen schon vorhandenen Teilungsebenen vorzugsweise parallel oder mit einem Winkel größer einem gegebenen Schwellwert ausgerichtet sind. Erst zum Schluss werden die verbleibenden Flächen gewählt, welche diesen Winkelschwellwert unterschreiten, wobei auch dann nur Flächen mit einem minimalen Flächeninhalt Berücksichtigung finden. Der Abstandsschwellwert sorgt dafür, dass parallele Teilungsebenen einen Mindestabstand voneinander haben und der Winkelschwellwert zusammen mit dem Flächenschwellwert, dass die resultierende Objektform nicht zu viele verschiedene Winkel aufweist. Da die Teilungsebenen entlang der größten Flächen verlaufen, passt sich auch das resultierende 3D-Gebäudemodell gemäß dieser Ebenen in die ursprüngliche Form ein. Die beschriebene Strategie führt zu guten Ergebnissen für 3D-Gebäudemodelle mit zumeist einheitlichen Flächenausrichtungen. Für 3D-Modelle mit vielen windschiefen Flächen erzeugt sie jedoch zu viele Teilungsebenen, die daraufhin zu einer feingliedrigen Zellenzerlegung und schlussendlich zu einem kleinflächigen Polyedermodell führen. Ein iterativer Algorithmus, der durch paarweises Zusammenführen und stetiger Neuausrichten von Flächengruppen zu einer kleineren Menge von approximierenden Ebenen führt, wird in [35] beschrieben. Da die Lage einer Teilungsebene aus einer gewichteten Durchschnittsbildung aller Flächen einer Gruppe gebildet und diese anschließend, zur Vermeidung kleiner Winkelungenauigkeiten, parallel und rechtwinklig zu anderen Teilungsebenen ausgerichtet wird, entstehen formeingepasste 3D-Gebäudemodelle mit wenigen Winkelvariationen. Abb. 16a zeigt die Menge der von den Fassadenflächen abgeleiteten Teilungsebenen. Zur besseren Übersicht wird auf die Darstellung der Teilungsebenen aus den Dachflächen und der weiteren Zerlegung entlang dieser Ebenen verzichtet.

Abb. 16 2D-Zellenzerlegung eines 3D-Gebäudemodells: (a) aus Fassadenflächen abgeleitete approximierende Teilungsebenen, (b) daraus resultierende 2D-Zellenzerlegung mit überlagerten Originalgrundriss und (c) als zum Gebäude zugehörig identifizierte Zellen. (Quelle: Eigene Darstellung)

144

4.2

M. Kada

Erzeugung einer Zellenzerlegung

Nachdem die Teilungsebenen vorliegen, wird der 3D-Raum entlang dieser Ebenen in eine Menge von disjunkten Zellen zerlegt (siehe Abb. 16b). Um unendlich große Zellen zu vermeiden, empfiehlt es sich in der Praxis einen endlichen Teilraum um das Objekt herum, vorzugsweise in der Form eines achsparallelen Quaders, zu zerschneiden. Dessen Ausdehnung sollte deutlich größer als die des Objekts sein und es mittig umschließen. Ansonsten können sich die Teilungsebenen außerhalb des Quaders schneiden, wodurch die Zellen an den Quadergrenzen abgekappt werden; und die am Rand befindlichen Zellen erhalten zu wenig Leerraum, um diese sicher als nicht zum Gebäude zugehörig zu identifizieren. Soll bei einem starken Generalisierungsfaktor ein Blockmodell ohne ausgewiesene Dachform erzeugt werden, so muss der quaderförmige Raum außerdem nach oben hin begrenzt werden. Dies verhindert, dass im Extremfall aus sämtlichen Dachflächen eine einzige schrägliegende Teilungsebene erzeugt wird, welche sich über die gesamte Gebäudefläche erstreckt und zu einem stark überhöhten Pultdach führt. Aus der Raumzerlegung ist anschließend die Teilmenge an Zellen zu identifizieren, die zusammengefügt das generalisierte 3D-Gebäudemodell ergibt. Hierfür wird als primäres Kriterium die räumliche Überdeckung mit dem Ausgangsmodell angesetzt. Zellen mit einem hohen Überdeckungsgrad werden als Gebäudezellen klassifiziert, die restlichen als Nichtgebäudezellen (siehe Abb. 16c). Neben der vektoriellen Bestimmung des Überdeckungsgrads kann die Berechnung auch in einem diskretisierten Raumgitter erfolgen. Hierzu müssen das Ausgangsmodell und sämtliche Zellen in ein solches überführt werden. Dies hat verschiedenste Vorteile. Das Ausgangsmodell muss z. B. nicht topologisch korrekt und wasserdicht sein. Obwohl dies eine grundsätzliche Voraussetzung für die korrekte Berechnung von Vektormodellen ist, kann eine Konvertierung in ein Gittermodell selbst bei gravierenden Modellfehlern häufig noch korrekt durchgeführt werden. Des Weiteren sind die notwendigen Berechnungen im Gittermodell äußerst effizient möglich. Schlussendlich können morphologische Binärbildoperationen genutzt werden, um Löcher und konkave Formbestandteile durch mehrfache Anwendung der Basisoperationen Dilatation und Erosion zu schließen. Dadurch wird die Zuverlässigkeit bei der Identifizierung der Gebäudezellen erhöht, selbst wenn hierfür sehr strikte Schwellwerte Verwendung finden. Als zweites Kriterium für die Klassifizierung von Zellen dient deren Kontext. Mittels heuristischer Regeln, welche die Klassifizierungen der Nachbarzellen mit einbeziehen, werden einzelne Nichtgebäudezellen zum Auffüllen von Löchern oder konkaven Formelementen dem Objekt hinzugefügt bzw. Gebäudezellen entfernt, wenn dies die Form des Gebäudemodells weiter vereinfacht (siehe Abb. 17a, b).

4.3

Vereinigung zu 3D-Gebäudemodellen

Die als zum Gebäude zugehörig klassifizierten Zellen werden anschließend zu einem 3D-Polyedermodell zusammengefügt. Da die Zellen disjunkt sind (d. h. sich

6 3D-Gebäudemodellierung und -generalisierung

145

Abb. 17 Verbesserung der Zellenzerlegung durch kontextabhängiges (a) Entfernen und (b) Hinzufügen von Gebäude- und Nichtgebäudezellen und (c) deren Angleichung an zentrale Lagepunkte und Höhenstufen [33, 35]

nicht durchdringen), aber sich gegenseitig berühren, wird dies mittels einer vereinfachten Booleschen 3D-Vereinigung, dem Zusammenkleben, erreicht. Damit erhält man grundsätzlich schon das generalisierte 3D-Gebäudemodell. Jedoch, je nachdem wie gut die Teilungsebenen zueinander ausgerichtet sind, resultiert die Zerlegung des Raums in Zellen mit mehr oder weniger eindeutigen Schnittkanten und -knoten. Kleine Ungenauigkeiten (siehe Abb. 17c) lassen sich durch das Zusammenziehen von nahe beieinanderliegenden Knoten noch korrigieren, wobei hier zu beachten ist, dass sämtliche Polyederflächen planar bleiben müssen. Im Gegensatz zum Halbkantenkollaps können bei dieser Operation mehr als zwei Knoten auf eine Position zusammengezogen werden und die betroffenen Knoten müssen auch nicht durch Kanten miteinander verbunden sein. Als Zielpositionen für die zusammenzuziehenden Eckpunkte bieten sich die Anfangs- und Endpunkte der jeweils in der Umgebung liegenden längsten, strikt vertikal in die Höhe oder strikt horizontal verlaufenden Kanten an. Das Ziehen von Eckpunkten hin zu den Mittelpunkten von Kanten und Flächen der Zellen führt zu symmetrischen Sattel- und Walmdachformen. Zusätzlich kann ein Ziehen von Eckpunkten auf bestimmte Höhenniveaus erfolgen. Abb. 17c zeigt das Zusammenziehen von Knoten auf Zellgrenzen und auf zwei farblich gekennzeichnete Höhenniveaus. Aufgrund der vereinfachten Form sind diese Zielpositionen zumeist eindeutig und verletzen nicht die notwendigen Planaritätseigenschaften von Flächen. Abb. 18 zeigt exemplarisch Ergebnisse der gesamtheitlichen Formvereinfachung. Die Komplexität des 3D-Gebäudemodells des Neuen Schlosses von Stuttgart aus Abb. 15 kann mit der vorgestellten Methode bspw. von 2727 auf 82 Dreiecke reduziert werden.

5

Weitere Generalisierungsvorgänge

Neben der Formvereinfachung existieren weitere kartographische Generalisierungsvorgänge, die ebenfalls für 3D-Gebäudemodelle untersucht wurden. Dies betrifft u. a. die Symbolisierung von Einzelgebäuden und die Typifizierung

146

M. Kada

Abb. 18 Ergebnisse der gesamtheitlichen Formvereinfachung: Ursprüngliche 3D-Gebäudemodelle (oben) und generalisierte Modelle (unten). (Quelle: Eigene Darstellung)

wiederkehrender Gebäudeelemente. Aufgrund des vergleichsweise geringen Detaillierungsgrads von Gebäudeobjekten in derzeit verfügbaren 3D-Stadtmodellen ist das Potential zur Generalisierung einzelner Objekte schnell erschöpft. Eine weiterführende kartographische 3D-Generalisierung kann deshalb nur durch die Aggregation größerer Ansammlungen von Gebäuden oder Gebäudeblöcken erreicht werden.

5.1

Symbolisierung und Typifizierung

Bei der Symbolisierung wird die wahre Form durch ein allgemein verständliches Sinnbild ersetzt. Die gesamtheitliche Formvereinfachung mittels Zellenzerlegung kann für die Symbolisierung von Dachformen erweitert werden. Hierzu werden die Zellen nur aus Teilungsebenen gebildet, die auf vertikal verlaufenden Fassadenflächen basieren. Dazu gehören auch Höhensprünge, die dem Grundrisspolygon nicht folgen. Die Flächen von Dachpartien werden hingegen ignoriert. Anschließend wird jeder Zelle eine parametrisierte Symboldachform zugewiesen, welche der dominanten Dachform des ursprünglichen 3D-Gebäudemodells bestmöglich entspricht. Dabei wird der Kontext der Zelle mit berücksichtigt, so dass nur Dachformen angesetzt werden, die mit den Formen der Nachbarzellen harmonieren. Als Symbolformen bieten sich hier die grundlegenden Dachformen wie Flach-, Pult-, Walm- und Satteldach an, sowie zu deren Verbindung die verschiedenen Kombinationen von Eck- und Kreuzungselementen. Durch die Symbolisierung kann eine weitere Verringerung in der Detaillierung erreicht und dabei noch formschöne und symmetrische 3D-Gebäudemodelle generiert werden. Ist die Dachform für eine

6 3D-Gebäudemodellierung und -generalisierung

147

Zelle bekannt, so kann auch speziell darauf reagiert werden, z. B. um herausragende Gebäudeelemente wie Türme flexibler im Generalisierungsprozess zu behandeln. Eine gesamtheitliche Symbolisierung von 3D-Gebäudemodellen mittels adaptiver Vorlagen wird von [63] vorgestellt. Die Erkennung von Gebäudedachformen oder Teilen davon ermöglicht weitere interessante Generalisierungsvorgänge. Bei der Typifizierung wird eine Menge geometrisch und semantisch ähnlicher Objekte unter Beibehaltung der ursprünglichen räumlichen Anordnung ausgedünnt. Diese Typifizierung kann z. B. bei Einzelgebäuden für sich wiederholende Dach- [24] und Fassadenelemente [59] erfolgen.

5.2

Aggregation und Fokussierung

Beim Generalisierungsvorgang der 3D-Aggregation wird eine Menge räumlich naher Gebäudeobjekte zu einem Modell zusammengefasst. Anders [2] aggregiert in Reihe stehende Blockgebäude, indem gemäß deren Hauptausrichtung drei orthogonal zueinander projizierte Silhouetten gebildet, diese mittels schrittweiser 2D-Formvereinfachung simplifiziert, die Ergebnisse wieder in den 3D-Raum extrudiert und mit Hilfe von Booleschen Verschneidungen kombiniert werden. Guercke et al. [25] zeigen die Aggregation von unterschiedlich hohen Blockmodellen mittels ganzzahliger Optimierung. He et al. [28] nutzen die semantische Strukturierung von 3D-Gebäudemodellen, um aus Gebäudeteilen Einheiten mit eigenen Grundrissen zu bilden, die anschließend aufgrund ihrer Höhe gruppiert und zu Modellen mit einer gemeinsamen Dachform oder zu Blockmodellen aggregiert werden. Xie et al. [65] füllen den Raum zwischen Gebäudegruppen, die über eine schrittweise Vergrößerung von Puffern um sämtliche Grundrisse herum gefunden werden, mit Dreiecken einer Delaunay-Triangulierung auf. Die resultierenden umschließenden Polylinien werden durch die Entfernung kleinflächiger Dreiecke des Weiteren so angepasst, dass konkave Strukturen aufgefüllt werden. Mit Hilfe vektorieller morphologischer Operationen aggregieren [67] sowohl einander berührende Gebäudekomponenten als auch rechtwinklig geformte 3D-Gebäudemodelle. Für die Echtzeitvisualisierung von 3D-Stadtmodellen wird in [12] eine Aggregation von Hintergrundgebäuden vorgeschlagen. Landmarken, die sich im Blickfeld des Betrachters befinden, werden nicht mit aggregiert und stechen damit betont aus ihrer Umgebung heraus. Glander und Döllner [22] aggregieren Gebäudegruppen, die sich innerhalb eines definierten umschließenden Straßenrings befinden, zu Blockmodellen, wobei in Abhängigkeit des Benutzerkontexts wichtige Landmarken in ihrem ursprünglichen Zustand bewahrt werden. Auf diese Weise soll es dem Betrachter einfacher fallen sich auf die aktuelle Aufgabe zu fokussieren. Alle genannten Ansätze aggregieren Gebäude direkt zu Blockmodellen ohne echte Dachformen aufzubauen. Das gesamtheitliche Generalisierungsverfahren zur Formvereinfachung aggregiert mehrere Gebäudeobjekte, indem es die zwischen den Gebäuden liegenden Zellen zum Auffüllen nutzt. Durch die Anwendung morphologischer Operationen wachsen die ursprünglichen Objekte in der Gitterdarstellung zusammen, so dass die relevanten Zellen die hierfür notwendigen

148

M. Kada

Abb. 19 Aggregation von drei 3D-Gebäudemodellen: (a) Ursprüngliche Modelle sowie deren Aggregation mit (b) 1 m, (c) 2 m und (d) 3 m Distanzschwellwert für die Erzeugung der Teilungsebenen für die Dachform. (Quelle: Eigene Darstellung)

Überlagerungswerte aufweisen. Dies funktioniert besonders gut für Satteldächer mit in Reihe ausgerichteten Dachfirsten (siehe Abb. 19). Allgemein bleibt jedoch unklar, welche Dachformen aggregierte 3D-Gebäudemodelle aufweisen sollen, wenn deren Firste nicht in Reihe, sondern parallel zueinander ausgerichtet sind.

6

Kontinuierliche Detailstufenübergänge

In der Echtzeitvisualisierung virtueller 3D-Landschaften hat es sich bewährt, Objekte in kontinuierlichen Abstufungen in Abhängigkeit von der Distanz zum Betrachter darzustellen. Der Wechsel zwischen Detailstufen sollte dabei nicht abrupt erfolgen, um den Fokus des Betrachters nicht unnötig auf die betroffene Region zu lenken. Die iterative Formvereinfachung erzeugt 3D-Gebäudemodelle mit einer beliebig fein abgestuften Sequenz fortlaufender Detailstufen. Wird diese Sequenz gespeichert, so kann sie zu einem späteren Zeitpunkt erneut abgerufen, in jedem beliebigen Zwischenschritt unterbrochen, fortgeführt und, sofern es die Operatoren erlauben, auch invertiert werden. Hoppe [31] stellt hierzu das Schema der sogenannten progressiven Dreiecksnetze vor, welches mehrfach für die kartographische Vereinfachung, Kodierung und Netzübertragung allgemeiner geographischer 2D-Vektordaten [1], Gebäudegrundrisse [44,57] sowie virtueller 2.5D-Stadtmodelle [56] adaptiert wurde. Progressive Dreiecksnetze erlauben es kontinuierlich zwischen beliebigen Detailstufen zu wechseln und dabei die Übergänge flüssig zu animieren. Zach [66] zeigt die häufig als Geomorphing bezeichnete Technik im Kontext von 3D-Stadtmodellen. Dagegen werden bei der gesamtheitlichen Formvereinfachung die Detailstufen unabhängig voneinander erzeugt, ohne dass die (Zwischen-)Ergebnisse aus anderen Detailstufen darauf Einfluss haben. Nur so kann gewährleistet werden, dass für jeden gegebenen Schwellwertsatz die bestmöglich vereinfachte Form für das 3D-Gebäudemodell abgeleitet wird. Eine feinstufige und aufeinander aufbauende Sequenz von Detailstufen ist für das gesamtheitliche Generalisierungsverfahren zunächst nicht vorgesehen. Es liegt jedoch nahe die beiden recht komplementären Ansätze zu kombinieren. Mittels der gesamtheitlichen Generalisierung wird eine kleine Menge von diskreten Detailstufen erzeugt, zwischen denen anschließend

6 3D-Gebäudemodellierung und -generalisierung

149

durch die schrittweise Formvereinfachung flüssig animierte Transformationen sowie weitere Zwischenrepräsentationen generiert werden. Im Folgenden soll zunächst eine Methode für eine schrittweise Transformation zwischen zwei Detailstufen aufgezeigt werden. Diese kann auf die Transformation einer Sequenz mehrerer Detailstufen, bei denen der Detailierungsgrad monoton abnimmt, in derselben Art und Weise ausgeweitet werden. Das Konzept ist in Abb. 20 dargestellt, bei dem zwischen vier vorgegebenen diskreten Detailstufen kontinuierliche Übergänge geschaffen werden.

6.1

Vorverarbeitung

Da sich die Transformationen zwischen zwei Detailstufen nur auf Bereiche auswirken sollen in denen sich die beiden auch effektiv unterscheiden, müssen die Modelldifferenzen zuerst auf der Ebene der Eckpunkte, Kanten und Flächen identifiziert werden (siehe Abb. 21). Für Eckpunkte einer Detailstufe kann durch den Koordinatenvergleich mit Eckpunkten der anderen Detailstufe unmittelbar festgestellt werden, ob diese nur in der einen, der anderen oder in beiden Detailstufen vorkommen. Die entsprechende Kategorisierung von Kanten und Flächen

Abb. 20 Konzept der kontinuierlichen Detailstufenübergänge. (Quelle: Eigene Darstellung)

Abb. 21 Detailstufenunterschiede: (a) höhere Detailstufe, (b) niedrigere Detailstufe, (c) symmetrische Differenz. Die roten und grünen Eckpunkte und Kanten kommen nur in der höheren bzw. niedrigeren Detailstufe vor und stellen die Differenzen dar. (Quelle: Eigene Darstellung)

150

M. Kada

gestaltet sich etwas aufwendiger, da sich zwei Entitäten aus unterschiedlichen Detailstufen sowohl vollständig als auch nur teilweise überlappen können. Daher wird die symmetrische Differenz zwischen den zwei Detailstufen gebildet, aus der eine Menge von Polyedern resultiert, welche nur die relevanten Kanten- und Flächenanteile enthält. Durch einen räumlichen Lagevergleich dieser Kanten und Flächen mit denen der beiden Detailstufenmodelle wird abschließend festgestellt, in welcher der Detailstufen diese enthalten sind. Durch die Transformation wird das Modell schrittweise von der höheren in die niedrigere Detailstufe umgewandelt, indem Knoten bewegt oder Kanten in eine der beiden inzidierenden Knoten kollabiert werden. Damit sich die Operationen nur auf die Differenzbereiche und nicht auf das gesamte Modell auswirken, müssen dem höher detaillierten Modell Sollbruchstellen hinzugefügt werden. Diese entsprechen den Kanten der symmetrischen Differenz, die nicht schon zum Modell gehören. Des Weiteren wird das Polyedermodell über die Delaunay-Triangulation der Polygonflächen in ein Dreiecksnetz überführt.

6.2

Operationen und Restriktionen

Damit durch die beiden Operationen, Knotenbewegung und Halbkantenkollaps, das gewünschte Zielmodell erreicht wird, sind Einschränkungen für die Transformationsoperationen notwendig. Grundsätzlich sollen nur Kanten, die ausschließlich in der höheren Detailstufe vorkommen, durch einen Halbkantenkollaps entfernt werden. Durch die Triangulation erzeugte Kanten dürfen nur in Sonderfällen kollabiert werden, um bspw. degenerierte Dreiecke aus dem Dreiecksnetz zu entfernen. Des Weiteren dürfen Knoten des höher detaillierten Modells beim Halbkantenkollaps nur entlang von Ebenen bewegt werden, die durch inzidierende Flächen der symmetrischen Differenz definiert sind. Je nach Anzahl dieser inzidierenden Flächen schränkt dies die Bewegungsfreiheit auf eine Ebene, eine Gerade oder vollständig ein. Im letzten Fall bleibt die Position des Knotens stets unverändert. Die Position eines nur im niedrigeren Detaillierungsgrad vorkommenden Eckpunkts wird durch dessen Verschiebung auf die Position eines im höheren Detaillierungsgrad vorkommenden Eckpunkts besetzt, aber nur, wenn beide Eckpunkte durch eine Kante der symmetrischen Differenz miteinander verbunden sind. Dessen Bewegungspfad folgt stets dieser Kante. Dabei gelten dieselben Einschränkungen gemäß inzidierender Flächen wie für den Halbkantenkollaps. Sowohl Halbkantenkollaps als auch die Verschiebung von Eckpunkten erfolgt in mehreren Schritten, bis keine weiteren Operationen mehr möglich sind, womit die Transformation zwischen den beiden Detailstufen abgeschlossen ist.

6.3

Transformationsreihenfolge

Die Reihenfolge der Transformationsoperationen ist entscheidend für die Korrektheit und die harmonische Wahrnehmung des Ansatzes. Zum einen sollen die

6 3D-Gebäudemodellierung und -generalisierung

151

geometrischen Veränderungen in den einzelnen Operationen minimiert werden, um nur geringe visuelle Störungen beim Übergang von einer Detailstufe zur nächsten zu erhalten. Andererseits muss ein gültiger Ablauf gewährleistet werden, der das hohe Detailstufenmodell in das vereinfachte Modell transformiert. Die Reihenfolge der Kantenoperationen kann durch eine Gewichtung der Kanten, bspw. deren Länge, geregelt werden. Kanten, die nicht verändert werden dürfen, erhalten dabei ein unendliches Gewicht. Obwohl dies effektiv zum Ziel führt, ist der Eindruck nicht sonderlich harmonisch, da die Eckpunkte ungeordnet in verschiedene Richtungen bewegt werden. Aus diesem Grund definieren [38] weitere Animationsreihenfolgen, bei denen die Transformationsoperationen in Abhängigkeit des Abstands der entsprechenden Knoten zu den Kontaktflächen, welche zwischen den Polyedern der symmetrischen Differenz und dem Basiskörper verlaufen, zeitlich synchronisiert angestoßen werden. Da die Animationsdauer für jede Operation so getaktet ist, dass sämtliche in der Animation befindlichen Eckpunkte stets denselben Abstand zu den Kontaktflächen halten, bleiben parallele und rechtwinklige Strukturen während der Animation erhalten. Abb. 22 zeigt drei Zustände der kontinuierlichen Detailstufenübergänge. Der Ansatz ist in der Lage, eine gültige Abfolge von schrittweisen Vereinfachungsoperationen zu generieren, um zwischen mehreren Detailstufen von 3D- Gebäudemodellen, wie sie in Abb. 23 dargestellt sind, zu transformieren. Die Reihenfolge und die Bewegungsrichtung der Knoten, in der die

Abb. 22 Kontinuierlichen Detailstufenübergänge: (a) ursprünglicher, (b) zwischenliegender und (c) endgültiger Zustand [38]

Abb. 23 3D-Gebäudemodelle in zwei Detailstufen für kontinuierliche Übergänge. (Quelle: Eigene Darstellung)

152

M. Kada

Kantenkollabierungs- und Knotenverschiebungsoperationen erfolgen, werden ausschließlich durch die beschriebenen Einschränkungen gesteuert.

7

Diskussion und Zusammenfassung

Fast gleichzeitig mit dem Aufkommen großflächiger 3D-Stadtmodelle wurden verschiedene Methoden zur kartographischen Generalisierung von 3D-Gebäudemodellen entwickelt, welche die Voraussetzungen schaffen sollen, aus den äußerst kostspielig erzeugten Modellen den größtmöglichen Nutzen zu ziehen. Neben zahlreichen Ansätzen zur Formvereinfachung wurden dabei auch vereinzelt die Vorgänge Symbolisierung, Typifizierung und Aggregation betrachtet. Und insbesondere im Hinblick auf die (Echtzeit-)Visualisierung von 3D-Stadtmodellen wurden diskrete Detailstufen um kontinuierliche Übergänge bereichert. Exemplarisch wurden hier einige Ansätze und deren grundlegenden Vorgehensweisen wiedergegeben. Trotz dieser Vielfalt haben die meisten kartographischen Generalisierungsverfahren für 3D-Gebäudemodelle das Forschungsstadium nicht verlassen. Das liegt einerseits an äußeren Faktoren wie Verfügbarkeit und technologische Entwicklungen. 3D-Gebäudemodelle, deren Detaillierung über das hinausgehen was die Grundrisse der zugrundeliegenden Geobasisdaten vorgeben, werden kaum in relevanten Mengen produziert. Insbesondere geometrische Fassadendetails existieren in flächendeckenden 3D-Stadtmodellen häufig nicht. Gleichzeitig erfahren Detailstufenkonzepte durch die rasanten Leistungsschübe im Bereich der Computerhardware und parallelen Datenverarbeitung mittlerweile eine geringere Bedeutung als noch vor zehn Jahren. Dies betrifft sowohl die 3D-Echtzeitvisualisierung, als auch die derzeit durchgeführten Analysen. Das Problem stellt nicht die geometrische Komplexität einzelner 3D-Gebäudemodelle dar, sondern die schiere Anzahl der Objekte in einem 3D-Stadtmodell. Andererseits wurden viele Generalisierungsmethoden sehr speziell im Hinblick auf die geometrischen Eigenschaften der 3D-Gebäudemodelle entwickelt, auf die sie angewendet wurden. Dabei wurden zum Teil unrealistische Annahmen zu den Objektformen getroffen, so dass die Methoden sich nicht allgemein anwenden lassen. Hinzu kommt, dass die vorgeschlagenen Operationen häufig unpräzise definiert und kaum für große Gebiete erprobt sind. Daher kann es nicht verwundern, dass sie auch nicht ihren Weg in die Anwendungen finden konnten. In jüngster Zeit finden 3D-Stadtmodelle Einzug in komplexe Simulationsanwendungen. Die Aufbereitung der Modelle für diese Anwendungen ist aufwendig und erfordert auch eine geometrische Generalisierung, um die numerische Stabilität der Simulationen zu erhöhen [51]. Für interdisziplinäre Anwendungen steigt auch die Notwendigkeit 3D-Stadtmodelle mit 3D-Modellen aus der rechnergestützten Konstruktion (CAD) oder der Bauwerksdatenmodellierung (BIM) geometrisch zu integrieren. Dabei ergibt sich häufig schon die erste Schwierigkeit dadurch, dass jedes Objekt eines großflächigen 3D-Stadtmodells nur als ein Körper mit exakt einer Außenhülle modelliert ist, aber die Modelle aus den Bereichen CAD oder

6 3D-Gebäudemodellierung und -generalisierung

153

BIM fast immer aus mehreren Körpern bestehen. Arroyo Ohori et al. [3] geben hierzu Einblick in einige geometrische und topologische Problemfälle. Bislang vorgeschlagene Methoden zur kartographischen Generalisierung sind zumeist nicht in der Lage mit 3D-Modellen umzugehen, die aus mehreren Teilkörpern bestehen, insbesondere, wenn diese auf kantenbasierten Operatoren aus dem Bereich der Flächensimplifizierung basieren. Aggregierende 3D-Generalisierungsansätze sind bislang selten anzutreffen und wurden auch noch nicht in Hinblick auf diese spezielle Aufgabe hin untersucht.

Literatur 1. Ai, T., Li, Z., Liu, Y.: Progressive transmission of vector data based on changes accumulation model. In: Fischer, P. (Hrsg.) Developments in Spatial Data Handling, S. 85–96. Springer, Berlin/Heidelberg (2005) 2. Anders, K.-H.: Level of detail generation of 3D building groups by aggregation and typification. In: Proceedings of the XXII International Cartographic Conference, La Coruna (2005) 3. Arroyo Ohori, K., Biljecki, F., Diakité, A., Krijnen, T., Ledoux, H., Stoter, J.: Towards an integration of GIS and BIM data: What are the geometric and topological issues? Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. IV-4/W5, 1–8 (2017) 4. Baig, S.U., Rahman, A.A.: A unified approach for 3D generalization of building models in CityGML. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XL-4/W1, 93–99 (2013) 5. Biljecki, F., Stoter, J., Ledoux, H., Zlatanova, S., Çöltekin, A.: Applications of 3D city models: State of the art review. ISPRS Int. J. Geo-Inf. 4(4), 2842–2889 (2015) 6. Biljecki, F., Ledoux, H., Du, X., Stoter, J., Soon, K.H., Khoo, V.H.S.: The most common geometric and semantic errors in CityGML datasets. ISPRS Ann. Photogramm. Remote Sens. Spatial Inf. Sci. IV-2/W1, 13–22 (2016) 7. Biljecki, F., Ledoux, H., Stoter, J.: An improved LOD specification for 3D building models. Comput. Environ. Urban Syst. 59, 25–37 (2016) 8. Botsch, M., Kobbelt, L., Pauly, M., Alliez, P., Levy, B.: Polygon Mesh Processing. CRC Press, Boca Raton (2010) 9. Brenner, C.: Interactive modelling tools for 3D building reconstruction. In: Fritsch, D., Spiller, R. (Hrsg.) Photogrammetric Week ’99, S. 23–34. Wichmann Verlag, Heidelberg (1999) 10. Brenner, C.: Modelling 3D objects using weak CSG primitives. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXV-B3, 1085–1090 (2004) 11. Brenner, C.: Building extraction. In: Vosselman, G., Maas, H.-G. (Hrsg.) Airborne and Terrestrial Laser Scanning, S. 169–212. Whittles Publishing, Dunbeath (2010) 12. Coors, V.: Feature-preserving simplification in web-based 3D-GIS. In: Proceedings of the 1st International Symposium on Smart Graphics, Hawthorne, S. 22–28 (2001) 13. Coors, V., Andrae, C., Böhm, K.-H.: 3D-Stadtmodelle: Konzepte und Anwendungen mit CityGML. Wichmann Verlag, Berlin, Offenbach (2016) 14. Eastman, C.M., Weiler, K.J.: Geometric modeling using euler operators. Computer Science Department. Paper 1587. http://repository.cmu.edu/compsci/1587 (1979). Zugegriffen am 25.09.2017 15. Fan, H., Meng, L.: Automatic derivation of different levels of detail for 3D buildings modeled by CityGML. In: Proceedings of the 24th International Cartography Conference, Santiago, S. 15–21 (2009) 16. Fan, H., Meng, L.: A three-step approach of simplifying 3D buildings modelled by CityGML. Int. J. Geogr. Inf. Sci. 26(6), 1091–1107 (2012) 17. Filippovska, Y., Walter, V., Fritsch, D.: Quality evaluation of generalization algorithms. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVII Part B2, 799–804 (2008)

154

M. Kada

18. Foley, J., van Dam, A., Feiner, S., Hughes, J.: Computer Graphics: Principles and Practice, 2. Aufl. Addison-Wesley, Reading (1990) 19. Forberg, A.: Generalization of 3D building data based on a scale-space approach. ISPRS J. Photogramm. Remote Sens. 62(2), 104–111 (2007) 20. Förstner, W.: 3D-city models: Automatic and semiautomatic acquisition methods. In: Fritsch, D., Spiller, R. (Hrsg.) Photogrammetric Week ’99, S. 291–303. Wichmann Verlag, Heidelberg (1999) 21. Garland, M., Heckbert, P.S.: Surface simplification using quadric error metrics. In: Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques (SIGGRAPH ’97), S. 209–216 (1997) 22. Glander, T., Döllner, J.: Abstract representations for interactive visualization of virtual 3D city models. Comput. Environ. Urban Syst. 33(5), 375–387 (2009) 23. Gröger, G., Plümer, L.: CityGML – interoperable semantic 3D city models. ISPRS J. Photogramm. Remote Sens. 71, 12–33 (2012) 24. Guercke, R., Zhao, J., Brenner, C., Zhu, Q.: Generalization of tiled models with curved surfaces using typification. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVIII Part 2, 39–44 (2010) 25. Guercke, R., Götzelmann, T., Brenner, C., Sester, M.: Aggregation of LoD1 building models as an optimization problem. ISPRS J. Photogramm. Remote Sens. 66(2), 209–222 (2011) 26. Haala, N., Cavegn, S.: High density aerial image matching: State-of-the-art and future prospects. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XLI-B4, 625–630 (2016) 27. Haala, N., Kada, M.: An update on automatic 3D building reconstruction. ISPRS J. Photogramm. Remote Sens. 65(6), 570–580 (2010) 28. He, S., Moreau, G., Martin, J.-Y.: Footprint-based generalization of 3D building groups at medium level of detail for multi-scale urban visualization. Int. J. Adv. Softw. 5(3&4), 378–388 (2012) 29. Henn, A., Gröger, G., Stroh, V., Plümer, L.: Model driven reconstruction of roofs from sparse LiDAR point clouds. ISPRS J. Photogramm. Remote Sens. 76, 17–29 (2013) 30. Hoffmann, C.: Solid and Geometric Modeling. Morgan Kaufmann Publishers, San Mateo (1989) 31. Hoppe, H.: Progressive meshes. In: Proceedings of the 23rd Annual Conference on Computer Graphics and Interactive Techniques (SIGGRAPH ’96), Los Angeles S. 99–108 (1996) 32. Kada, M.: Automatic generalisation of 3D building models. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXIV Part 4, 243–248 (2002) 33. Kada, M.: 3D building generalization based on half-space modeling. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVI-2/W40, 58–64 (2006) 34. Kada, M.: A contribution to 3D generalisation. In: Fritsch, D. (Hrsg.) Photogrammetric Week ’07, S. 41–51. Wichmann Verlag, Heidelberg (2007) 35. Kada, M.: Generalization of 3D building models for map-like presentations. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVII Part B2, 399–404 (2008) 36. Kada, M.: Progressive transmission of 3D building models based on string grammars and planar half-spaces. ISPRS Ann. Photogramm. Remote Sens. Spatial Inf. Sci. II2, 263–268 (2014) 37. Kada, M., McKinley, L.: 3D building reconstruction from LiDAR based on a cell decomposition approach. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVIII-3/W4, 29–43 (2009) 38. Kada, M., Wichmann, A., Filippovska, Y., Hermes, T.: Animation strategies for smooth transformations between discrete LODs of 3D building models. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XLI-B4, 413–420 (2016) 39. Kada, M., Wichmann, A., Manzke, N., Filippovska, Y.: A data model for the interactive construction and correction of 3D building geometry based on planar half-spaces. In: AbdulRahman, A. (Hrsg.) Advances in 3D Geoinformation, S. 461–476. Springer, Cham (2017) 40. Kobbelt, L., Campagna, S., Seidel, H.-P.: A general framework for mesh decimation. In: Proceedings of Graphics Interface ’98, Vancouver, S. 43–50 (1998)

6 3D-Gebäudemodellierung und -generalisierung

155

41. Kolbe, T.H.: CityGML goes to Broadway. In: Fritsch, D. (Hrsg.) Photogrammetric Week ’15, S. 343–356. Wichmann Verlag, Heidelberg (2015) 42. Kolbe, Z.H., Plümer, L., Cremers, A.B.: Identifying buildings in aerial images using constraint relaxation and variable elimination. IEEE Intell. Syst. 15(1), 33–39 (2000) 43. Kruskal, J.B.: On the shortest spanning subtree of a graph and the traveling salesman problem. Proc. Am. Math. Soc. 7, 48–50 (1956) 44. Li, H., Wang, Y, Guo, Q., Han, J.: Progressive simplification and transmission of building polygons based on triangle meshes. In: Proceedings of SPIE 7840, Sixth International Symposium on Digital Earth: Models, Algorithms, and Virtual Reality (2009) 45. Li, Q., Sun, X., Yang, B., Jiang, S.: Geometric structure simplification of 3D building models. ISPRS J. Photogramm. Remote Sens. 84, 100–113 (2013) 46. Löwner, M.-O., Gröger, G., Benner, J., Biljecki, F., Nagel, C.: An improved LOD specification for 3D building models. ISPRS Ann. Photogramm. Remote Sens. Spatial Inf. Sci. IV-2/W1, 3–12 (2016) 47. Luebke, D.: Level of Detail for 3D Graphics. Morgan Kaufmann Publishers, San Francisco (2002) 48. Mäntylä, M.: An Introduction to Solid Modeling. Computer Science Press, Rockville (1988) 49. Mao, B., Ban, Y., Harrie, L.: A framework for generalization of 3D city models based on CityGML and X3d. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVIII-2/W11 (2009) 50. Peter, M.S., Haala, N., Fritsch, D.: Preserving ground plan and facade lines for 3D building generalization. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVII Part B2, 481–486 (2008) 51. Piepereit, R., Schilling, A., Alam, N., Wewetzer, M., Pries, M., Coors, V.: Towards automatic processing of virtual city models for simulations. ISPRS Ann. Photogramm. Remote Sens. Spatial Inf. Sci. IV-2/W1, 39–45 (2016) 52. Rau, J.-Y., Chen, L.-C.: Robust reconstruction of building models from three-dimensional line segments. Photogramm. Eng. Remote Sens. 69(2), 181–188 (2003) 53. Rau, J.Y., Chen, L.C., Tsai, F., Hsiao, K.H., Hsu, W.C.: Automatic generation of pseudo continuous LoDs for 3D polyhedral building model. In: Abdul-Rahman, A., Zlatanova, S., Coors, V. (Hrsg.) Innovations in 3D Geo Information Systems. Lecture Notes in Geoinformation and Cartography, S. 333–343. Springer, Berlin/Heidelberg (2006) 54. Requicha, A.A.G.: Mathematical models of rigid solids, Technical Memo 28, Production Automation Project, University of Rochester, Rochester (1977) 55. Rottensteiner, F., Sohn, G., Gerke, M., Wegner, J.D., Breitkopf, U., Jung, J.: Results of the ISPRS benchmark on urban object detection and 3D building reconstruction. ISPRS J. Photogramm. Remote Sens. 93, 256–271 (2014) 56. Royan, J., Balter, R., Bouville, C.: Hierarchical representation of virtual cities for progressive transmission over networks. In: Third International Symposium on 3D Data Processing, Visualization, and Transmission, Chapel Hill, S. 432–439 (2006) 57. Sester, M., Brenner, C.: A vocabulary for a multiscale process description for fast transmission and continuous visualization of spatial data. Comput. Geosci. 35(11), 2177–2184 (2009) 58. Sester, M., Klein, A.: Rule based generalization of buildings for 3D-visualization. In: Proceedings of the 19th International Cartographic Conference of the ICA, Ottawa, S. 214–224 (1999) 59. Shen, J., Fan, H., Mao, B., Wang, M.: Typification for façade structures based on user perception. ISPRS Int. J. Geo-Inf. 5(12), 239 (2016) 60. Sohn, G., Huang, X., Tao, V.: Using a binary space partitioning tree for reconstructing polyhedral building models from airborne LiDAR data. Photogramm. Eng. Remote Sens. 74(11), 1425–1438 (2008) 61. Staufenbiel, W.: Zur Automation der Generalisierung topographischer Karten mit besonderer Berücksichtigung großmaßstäbiger Gebäudedarstellungen. Wissenschaftliche Arbeiten der Fachrichtung Vermessungswesen der Universität Hannover (1973)

156

M. Kada

62. Thiemann, F.: 3D-Gebäude-Generalisierung. In: Visualisierung und Erschließung von Geodaten – Seminar GeoVIS 2003, Kartographische Schriften, Bd. 7, S. 185–192. Kirschbaum Verlag, Bonn (2003) 63. Thiemann, F., Sester, M.: 3D-symbolization using adaptive templates. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVI Part 2, 109–114 (2006) 64. Vallet, B., Pierrot-Deseilligny, M., Boldo, D.: Building footprint database improvement for 3D reconstruction: A direction aware split and merge approach. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XXXVIII Part 3/W4, 139–144 (2009) 65. Xie, J., Zhan, L., Li, J., Wang, H., Yang, L.: Automatic simplification and visualization of 3D urban building models. Int. J. Appl. Earth Obs. Geoinf. 18, 222–231 (2012) 66. Zach, C.: Integration of geomorphing into level of detail management for real-time rendering. In: Proceedings of the 18th Spring Conference on Computer Graphics, SCCG ’02, S. 115–122. ACM, New York (2002) 67. Zhao, J., Zhu, Q., Du, Z., Feng, T., Zhang, Y.: Mathematical morphology-based generalization of complex 3D building models incorporating semantic relationships. ISPRS J. Photogramm. Remote Sens. 68, 95–11 (2012)

7

Computer-gestützte Bewegungsanalyse Patrick Laube, Joachim Gudmundsson und Thomas Wolle

Inhalt 1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Bewegungsspuren – Eine neue Art von Geoinformation . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Wissenschaftliche Grundlagen der algorithmischen Bewegungsanalyse . . . . . . . . . . . . . . 3.1 Modellierung von Bewegung und Bewegungsräumen . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Indexierung von Trajektorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Trajektoriensegmentierung und Trajektorienvereinfachung . . . . . . . . . . . . . . . . . . . . 3.4 Trajektorienähnlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Bewegungsmuster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Visualisierung, Visual Analytics und Explorative Analyse von Bewegungsdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Anwendungsgebiete der Computer-gestützten Bewegungsanalyse . . . . . . . . . . . . . . . . . . 4.1 Verhaltensökologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Mobilität und Transportwesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Überwachung und Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Marketing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Bewegungsanalyse im Profisport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Bewegung in abstrakten Räumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 UbiComp und Sensor-Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Datenschutz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Schlussfolgerungen und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

158 159 160 160 162 163 165 167 169 171 171 171 172 172 173 174 174 175 177 178

P. Laube () Zürcher Hochschule für Angewandte Wissenschaften, ZHAW, Wädenswil, Schweiz E-Mail: [email protected] J. Gudmundsson · T. Wolle NICTA, Sydney, NSW, Australien E-Mail: [email protected]; [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_68

157

158

P. Laube et al.

Zusammenfassung

Die jüngsten Fortschritte der Trackingtechnologie produzieren Geodaten, welche die Bewegung mobiler Objekte mit einer bisher unerreichten räumlichen und zeitlichen Auflösung erfassen. Diese neue, von Natur aus raumzeitliche Art geographischer Informationen ermöglicht neue Einsichten in dynamische geographische Prozesse, stellt aber auch die traditionell eher statischen Werkzeuge der Raumanalyse infrage. Dieses Kapitel gibt einen Überblick über Bewegungsdaten im Allgemeinen, die Theorie der Bewegungsmodellierung und -analyse sowie eine Reihe wichtiger Anwendungsfelder der computer-gestützten Bewegungsanalyse. Schließlich geht das Kapitel auf Überlegungen bezüglich der Privatsphäre ein, welche für die Analyse der Bewegung von Menschen sehr wichtig sind. Schlüsselwörter

Trajektorien · Bewegung · Raum-zeitliches GIS · Data-mining · Konzeptuelle Datenmodelle · Segmentierung · Ähnlichkeit · Visualisierung · Visual Analytics

1

Einführung

Mobilität spielt eine Schlüsselrolle in einer globalisierten Welt, in der sich immer mehr Menschen, Waren, Daten und sogar Ideen immer schneller über immer größere Distanzen bewegen. In unserer natürlichen und gebauten Umwelt sind sich bewegende Objekte die Bausteine dynamischer geographischer Prozesse. Die jüngsten Fortschritte in der Ortsbestimmung (GNSS, RFID), der drahtlosen Kommunikation, bei mobilen Computern und der Technologie der Umweltsensorik ermöglichen ein nahezu allgegenwärtiges Nachverfolgen von Personen und Objekten, die sich in Raumzeit bewegen. Dies ergibt große Datenmengen, die sozioökonomisch höchst relevante dynamische Prozesse abbilden. Ob bei Mobiltelefonen und drahtloser Kommunikation [1], im Transportwesen [2], bei der Videoüberwachung in den Bereichen Sicherheit und Sport [3], oder auch in der ökologischen Grundlagenforschung [4], Bewegungsdaten werden in bisher undenkbaren Mengen und Genauigkeiten gesammelt. Während jedoch die Technologien zur Bewegungserfassung intensiv erforscht und entsprechend ausgereift sind, sind die Werkzeuge, die bei der Anreicherung der aufgezeichneten Daten zu nützlichen Informationen und Prozesswissen helfen, weit weniger entwickelt. Dieses Kapitel beschreibt zunächst Bewegungsspuren als eine neue, inhärent raumzeitliche Art von Geoinformation. Daraufhin werden die für die Analyse derartiger Daten notwendigen wissenschaftlichen Grundlagen besprochen, wobei Techniken aus den unterschiedlichsten Wissenschaftsbereichen vorgestellt werden. Der folgende Teil ist ein Rundgang durch Einsatzbereiche der Analyse raumzeitlicher Bewegung. Nach einer kurzen Einführung zu Datenschutzfragen schließt das Kapitel mit Schlussbemerkungen und einem Ausblick.

7 Computer-gestützte Bewegungsanalyse

2

159

Bewegungsspuren – Eine neue Art von Geoinformation

Die computer-gestützte Bewegungsanalyse ist aus drei Hauptgründen ein relativ junges und wenig entwickeltes Forschungsfeld. Erstens hat die Geoinformatik die relativ statische Sichtweise bloßer Momentaufnahmen aus der Welt der Kartographie geerbt. Zweitens wurden Geoinformationssysteme (GIS) als Erweiterungen konventioneller Datenbanken entwickelt und sind entsprechend für die Bearbeitung von weitgehend statischen Daten mit gelegentlichen Aktualisierungen (z. B. Eigentümerwechsel oder Gebietsänderung in einer Katasterkarte) ausgelegt, nicht aber für Datensätze, die sich permanent verändern (z. B. die ständig veränderte Position eines fahrenden Autos). Und drittens war die Aufzeichnung von Bewegungsdaten lange Zeit ein mühsames und teures Unterfangen. Für lange Zeit konnte sich die Bewegungsanalyse daher nur mit einzelnen Individuen oder sehr kleinen Gruppen befassen. Erst in den letzten Jahren haben die technologischen Fortschritte in der Trackingtechnologie ein Niveau erreicht, das ein nahtloses und genaues Verfolgen einer ausreichend großen Anzahl von Individuen ermöglicht, um die Dynamik von mobilen Einzelobjekten und Kollektiven in einem größeren Maßstab zu untersuchen [5]. Mit GNSS (Globales Navigationssatellitensystem), RFID (Radiofrequenzidentifikation) und vielen weiteren in Innenräumen und im Freien einsetzbaren Trackingtechnologien tritt die Erforschung von Bewegungsmustern in ein neues Zeitalter ein und verabschiedet sich definitiv von ihren heute anachronistisch anmutenden Urformen [6]. Die heutige Trackingtechnologie erlaubt eine kostengünstige, nahezu kontinuierliche Aufzeichnung individueller Bewegungsbahnen, wobei Abtastraten in Sekundenbruchteilen möglich sind [7]. Innerhalb weniger Jahre kehrte sich die Situation vollständig, von einem notorischen Datenmangel hin zu Big Data, mit einem Mangel an geeigneten analytischen Konzepten, um die plötzliche Flut an Bewegungsdaten zu bewältigen [8]. Bewegungsspuren zeichnen den raumzeitlichen Fußabdruck der Bewegung von Individuen auf, und reihen sich damit als neue Art von Geoinformation neben den gängigen, eher statischen Punkten, Linien und Polygonen ein. Bisher modellieren die meisten Anwendungen und die dazugehörigen Analysetechniken mobile Entitäten als Punktobjekte und deren Bewegung als Sequenz von Beobachtungspunkten mit Zeitstempel. Jedoch können sich auch komplexere räumliche Entitäten wie lineare oder flächige Objekte bewegen und damit wesentlich komplexere Bewegungsdaten erzeugen. Beispielsweise können der Pfad und die ständig sich verändernde Form eines tropischen Wirbelsturms aus den Daten multitemporaler Fernerkundungsdaten durch Bildanalyse ermittelt werden. Es kann nicht genug betont werden, dass Bewegung sowohl räumlicher als auch zeitlicher Natur ist und Bewegungsdaten damit mehr Information tragen als nur die statische, rein räumliche Spur der Bewegung. Wie in den folgenden beiden Abschnitten ausgeführt, hat sich die computergestützte Bewegungsanalyse als aktives und interdisziplinäres Forschungsfeld etabliert.

160

3

P. Laube et al.

Wissenschaftliche Grundlagen der algorithmischen Bewegungsanalyse

Angenommen die Entitäten in Abb. 1 seien weidende Schafe und würden von einem Datenbankexperten, einem theoretischen Informatiker und einem Geographen beobachtet werden. Obwohl alle drei Experten dieselben Schafe betrachten, dürften sie völlig verschiedene Dinge wahrnehmen. Der Datenbankexperten sieht im Schaf vielleicht einen Knoten in einer dynamischen Baumstruktur für schnelle Suchabfragen. Im Gegensatz dazu möchte der Geograph vielleicht die Bewegungsbahnen in semantisch sinnvolle Segmente aufteilen oder eine Dichteoberfläche der Schafverteilung auf der Weide interpolieren. Der theoretische Informatiker schließlich könnte sich vor allem für die konvexe Hülle der Schafe interessieren, hinsichtlich der Identifikation eines Herden-Bewegungsmusters. Auch wenn es den Schafen egal ist, wer sie betrachtet, ihr Grasen fordert verschiedene an der Bewegungsanalyse interessierte Forschungsfelder heraus. Der folgende Überblick bündelt die wissenschaftlichen Grundlagen der computergestützten Bewegungsanalyse und schöpft dabei aus einem breiten Spektrum von Forschungsgebieten, von der Geographie und Geoinformatik, über die theoretische Informatik und algorithmische Geometrie, bis hin zu Datenbanken, Data-Mining und Knowledge Discovery in Databases (KDD). Die Review-Artikel von Long und Nelson [9]; Demšar et al. [10] und Laube [11] bieten einen alternativen Einstieg ins Thema.

3.1

Modellierung von Bewegung und Bewegungsräumen

Die konzeptuelle Modellierung von Bewegung erfordert die Modellierung der sich bewegenden Entitäten, aber zugleich auch die Modellierung des Raums, in dem diese sich bewegen [11]. Das gewählte die Bewegung einschließende konzeptuelle Datenmodell – beispielsweise ein 2-D oder 3-D euklidischer Raum, ein Netzwerk oder eine Tesselation des Raums – bestimmt, wie sich die Entitäten bewegen

Abb. 1 Grasende Schafe nahe des Tauposees, Neuseeland, Foto: Patrick Laube

7 Computer-gestützte Bewegungsanalyse

161

a

b

e3 t2

b1 y

b2

y

t

e1

e9

t1

e4 e 5

e7

e6

e8

x

x

c

d B e10

e11

D

A

e12

5

C G

E F 6

J

H 3

MM

e13

I

K

e14

Abb. 2 Vier einfache Bewegungsräume, (a) 2-D euklidischer Raum, (b) 3-D Raumzeitwürfel, (c) Netzwerk, (d) unregelmäßige Tesselation, z. B. Mobilfunkzellen.

können und beeinflusst folglich, welche Analysewerkzeuge zum Verständnis der Bewegung erforderlich sind. Abb. 2 zeigt einfache Bewegungsräume und wie in diesen Bewegung modelliert werden kann. Im einfachsten Fall ist der Raum als 2-D euklidischer Raum modelliert (Abb. 2a). Die Entitäten können sich frei bewegen und werden dabei nur von potenziellen Hindernissen wie den Gebäuden b1 und b2 behindert. Der Raum kann mit den bekannten konzeptuellen Datenmodellen Entitätsmodell oder Feldmodell (engl. entity oder field model) modelliert werden. Die Bewegung einer Entität wird dann als eine Folge von Positionen (x, y) modelliert, die von der Entität im Zeitverlauf besucht wurden (in 3-D entsprechend mit der Position als Tripel (x, y, z)). Selbst wenn die tatsächliche Bewegung eine geschwungene Kurve beschreibt, wird die Bewegung zwischen bekannten Positionen (engl. fixes) der Einfachheit halber mit geraden Verbindungslinien angenähert (siehe e1 ). Eine solche Bewegungsspur wird als Trajektorie bezeichnet. Formell ist eine Trajektorie als eine Serie von Positionen mit Zeitstempel definiert: (x, y)T 1 , . . ., (x, y)T t , wobei T1 , . . ., Tt die t aufeinanderfolgenden Zeitschritte sind. Verbindet man die Positionen einer Trajektorie, erhält man eine polygonale Linie, die sich selbst überschneiden kann [12].

162

P. Laube et al.

Die Verwendung eines 3-D-Raums ist ein eleganter Weg, die Zeit in die visuelle Darstellung von 2-D-Bewegung einzugliedern [13]. Dabei werden die beiden räumlichen Dimensionen x und y mit einer orthogonalen Zeitachse t kombiniert (Abb. 2b). Ein solcher Raumzeitwürfel (manchmal als Raum-Zeit-Aquarium bezeichnet) basiert auf Hägerstrands Zeitgeographie [14]. Dieses Konzept ermöglicht außerdem die Modellierung potenzieller Mobilität, z. B. zur Beantwortung der Frage, wo überall eine Entität zwischen zwei bekannten Positionen gewesen sein könnte. Das für e3 gezeigte Raumzeitprisma gibt ein Volumen an, in dem sich e3 bei Beschränkung seiner Maximalgeschwindigkeit zwischen den Zeitpunkten t1 und t2 aufgehalten haben könnte [15]. Die Bewegung von Menschen ist weitgehend auf Netzwerke beschränkt. Wenn beispielsweise die Bewegung eines Pendlers in einem Stadtgebiet nachverfolgt wird, ist die Bewegung am adäquatesten als eine Sequenz der besuchten Verbindungslinien und Knotenpunkte des Transitnetzes zu modellieren [16]. Abb. 2c zeigt die Bewegung der Entitäten e10 und e11 entlang eines Transitnetzes aus Straßen und Bahnlinien. Selbst wenn die tatsächliche Bewegung mit einem GNSS-Ortungsgerät beobachtet wird und daher von der kartierten Straße abweichen könnte, wird semantisch davon ausgegangen, dass die Bewegung auf das Netzwerk beschränkt ist. Der Kartenabgleich in der Datenvorverarbeitung verschiebt ungenaue Ortsbestimmungen auf die jeweiligen Verbindungslinien und Knotenpunkte [17]. Beim Nachverfolgen einer Person über die digitale Spur ihres Mobiltelefons wird die Bewegung nur als die Sequenz der Mobilfunktürme aufgezeichnet, mit denen das Mobiltelefon verbunden war [18]. In Abb. 2d beispielsweise war Entität e12 mit den Mobilfunktürmen A, E, F, C und B verbunden. Obwohl diese Form von Bewegungsinformation keine punktgenauen Ortsangaben liefert, reichen solche vagen Bewegungsspuren für viele Anwendungen aus (z. B. Entfernungsbestimmung bei standortbezogenen Diensten, engl. Locaction-Based Services) [19]. Alle vier Bewegungsräume können die Bewegung von Individuen aufnehmen, aber sie sind hinsichtlich der für die Bewegungsanalyse benötigten Werkzeuge und Techniken sehr unterschiedlich. Die folgenden Unterabschnitte erläutern die unterschiedlichen Analysetechniken für unterschiedliche Bewegungsformen.

3.2

Indexierung von Trajektorien

Die Entwicklung räumlicher und zeitlicher Datenbanken ist ein aktives Betätigungsfeld der Datenbankforschung. Die Erforschung im raumzeitlichen Bereich begann mit den Dissertationen von Lorentzos [20] und Langran [21]. Wenig überraschend konzentrierte sich die Forschung vor allem auf die Datenbankindexierung, mit der einfache räumliche und zeitliche Suchabfragen effizient beantwortet werden können. Die in der Literatur am häufigsten berücksichtigten Suchanfragen sind Varianten der Suche nach dem nächsten Nachbarn und von Bereichsabfragen, wie beispielsweise: • Raumzeitliche Bereichsabfrage, z. B.: „Melde alle Entitäten, die im Zeitintervall [t1 , t2 ] die Region S besucht haben.“

7 Computer-gestützte Bewegungsanalyse

163

• Räumlich nächster Nachbar in einem gegebenen Zeitintervall, z. B.: „Melde die zum Zeitpunkt t zu Punkt p nächstgelegene Entität.“ • Zeitlich nächster Nachbar, mit einer gegebenen räumlichen Region, z. B.: „Melde die erste die Region S besuchende Entität.“ Generell können für raumzeitliche Daten verwendete Indexierungsmethoden in parametrische Raumindexierungsmethoden (Parametric Space Indexing, PSI) und native Raumindexierungsmethoden (Native Space Indexing, NSI) eingeteilt werden. Die PSI-Methode nutzt den von den Bewegungsparametern definierten parametrischen Raum, sie ist ein effizientes Verfahren für vorhersagende Abfragen. Ein typisches von Saltenis et al. [22] beschriebenes Verfahren repräsentiert die Bewegung anhand ihrer Geschwindigkeit und der projizierten Position. Der parametrische Raum wird anschließend mit einer neuen, als TPR-Baum (time parameterized R-tree) bezeichneten, Indexstruktur indexiert. Der TPR-Baum ist eine balancierte mehrdimensionale Struktur eines R-Baums. Einträge in den Blattknoten sind Paare aus der Position eines mobilen Punkts und einem Zeiger auf den mobilen Punkt, und die inneren Knoten enthalten Paare aus einem Zeiger auf einen Teilbaum und einem Rechteck, das die Positionen aller mobiler Punkte in diesem Teilbaum umschließt – oder andere Begrenzungsrahmen (engl. bounding box). Die Position eines mobilen Punktes wird durch einen Bezugspunkt und einen dazugehörigen Geschwindigkeitsvektor repräsentiert. Ein zeitparameterisierter Begrenzungsrahmen schließt alle enthaltenden Punkte, oder Begrenzungsrahmen, zu allen Zeiten ein (aber nicht vor der aktuellen Zeit). Die NSI-Methoden repräsentieren Bewegung in d Dimensionen als eine Sequenz von Liniensegmenten in d+1 Dimensionen, mit Zeit als zusätzlicher Dimension. Für ein Beispiel sei auf die Arbeit von Hadjieleftheriou et al. [23] verwiesen. Ein gebräuchlicher Ansatz verwendet ein multidimensionales räumliches Zugriffsverfahren wie den R-Baum. Ein R-Baum würde die raumzeitliche Entwicklung einer Entität mit einem sie minimal umgebenden Begrenzungsrahmen nähern, der alle von der Entität während ihrer Lebenszeit eingenommenen Positionen eng umgrenzt. Die Indexierung von Trajektorien kann durch die Verwendung eines MultiversionsR-Baums (MVR-tree), auch bekannt als persistant R-tree, verbessert werden. Dieser Index speichert alle früheren Zustände der Datenentwicklung und erlaubt es, den jüngsten Zustand zu aktualisieren. Der MVR-Baum teilt langlebige Entitäten in kleinere Intervalle ein, indem eine Anzahl von Entitätskopien eingeführt wird. Eine Abfrage zielt auf den exakten Zustand der Struktur zum gefragten Zeitpunkt, somit ist die Abfragegeschwindigkeit proportional zur Anzahl der zu diesem Zeitpunkt in der Struktur enthaltenen Entitäten.

3.3

Trajektoriensegmentierung und Trajektorienvereinfachung

In vielen Anwendungen ist die vom Objekt während der Nachverfolgung ausgeübte Aktivität eine wichtige Information. Beispielsweise im Transportwesen: Kann das verwendete Verkehrsmittel aus der Trajektorie abgeleitet werden? Oder in der Verhaltensökologie: Ist es möglich, das Verhalten eines Tiers allein durch Untersuchung

164

P. Laube et al.

seiner Trajektorie zu identifizieren? Als ein Beispiel denke man an Möwen. Sie können während des Flugs mehrere verschiedene Verhalten ausführen. Sie könnten mir anderen Möwen spielen (ihr Flug ist dabei sehr kurvig, mit stark veränderlicher Geschwindigkeit und einer auf ein kleines Gebiet begrenzten Bewegung), nach der Nahrungssuche zurück zum Nest fliegen (gerader Flug mit nahezu konstanter energiesparender Geschwindigkeit) oder einem Fischerboot folgen (stückweise gerade Flüge über Wasser, mit gelegentlichen Höhenänderungen und einer über das Zeitintervall konstanten Geschwindigkeit von etwa 7 m/s). Dieses Beispiel deutet an, dass durchaus einige Informationen über die Aktivität von Möwen automatisch aus der Trajektorie abgeleitet werden können. Die Aufteilung einer Trajektorie in relevante, die jeweiligen Aktivitäten repräsentierende Segmente hängt stark vom Kontext ab. Es wäre unmöglich, die oben genannte Segmentierung ohne Expertenwissen und Informationen zum Kontext durchzuführen. Deshalb besprechen wir in diesem Abschnitt das Problem nur im Allgemeinen und verweisen für spezifische Anwendungen auf die jeweils dringend nötige semantische Einbettung der Segmentierung. Ziel der Segmentierung ist es, die Trajektorie in eine Reihe von als Segmente (Subtrajektorie) bezeichnete Teilstücke aufzuteilen. Dabei sollen die Merkmale der Bewegung in jedem Segment in einem gewissen Sinn einheitlich sein. Die betrachteten Bewegungsmerkmale sind beispielsweise Geschwindigkeit, Richtung, Höhe oder Sinuosität. Buchin et al. [24] versuchen, eine gegebene Trajektorie anhand von Position, Geschwindigkeit oder Bewegungsazimuth in verschiedene Verhaltensmuster aufzuteilen. Sie untersuchten Flugverhalten von Vögeln und verwendeten eine Kategorisierung aus „fliegen“, „nach Futter suchen“ und „ruhen“. Buchin et al. [25] publizierten eine algorithmische Herangehensweise, die sich auf die Aufteilung einer Trajektorie in eine kleine Anzahl von Segmenten mit ähnlichen Bewegungseigenschaften konzentriert. Ihr Verfahren definiert für jede Bewegungseigenschaft eine Attributfunktion, die für jeden Punkt auf der Trajektorie einen Wert ergibt (angenommen die charakteristischen Attribute können lokal berechnet werden). Um die Ähnlichkeit der Attribute innerhalb jedes Segments zu garantieren, definieren die Autoren Kriterien für maximale Wertbereiche. Sie zeigen zudem, dass ein einfaches Verfahren in linearer Zeit eine optimale Segmentation generiert, wenn die charakterisierenden Eigenschaften monoton sind. Anagnostopoulos et al. [26]; Rasetic et al. [27] und Yoon und Shahabi [28] verfolgen mit ihren Ansätzen ein völlig anderes Ziel. Sie teilen die Trajektorie mithilfe von minimalen Begrenzungsrahmen (engl. bounding boxes), was zu einer Vereinfachung der ursprünglichen Objekte in kleinere, weniger komplexe und besser zum Abspeichern und Wiederabrufen geeignete Primitiven führt. Dieses Segmentierungsverfahren ist insbesondere bei Indexstrukturen besonders effektiv, die minimale Begrenzungsrahmen zum Speichern der Trajektorie verwenden. Das Ziel ist meist, mit minimalem Rechenaufwand eine Unterteilung aller Trajektorien zu finden, das heißt, die Anzahl aller Segmente ist vorgegeben. Es wurden viele Funktionen mit sehr unterschiedlichem Rechenaufwand vorgeschlagen, die von einer einfachen Volumenverringerung der Begrenzungsrahmen zu hochkomplexen Kombinationen mit vielen verschiedenen Attributen reichen (siehe [26–28] für Details).

7 Computer-gestützte Bewegungsanalyse

165

Viele Algorithmen zur Trajektorienvereinfachung erzeugen eine Segmentation der Trajektorie, meist indem sie ein einfaches Distanzmaß verwenden, um die Trajektorie „abzukürzen“. Ein gebräuchliches Verfahren basiert auf dem DouglasPeucker-Algorithmus [29], für Beispiele siehe Cao et al. [30], Gudmundsson et al. [31] sowie Meratnia und de By [32]. Für eine reelle Zahl ε > 0 vereinfacht der Douglas-Peucker-Algorithmus den polygonalen Pfad P = (p1 , . . ., pn ) wie folgt: Man startet mit dem Segment (p1 , pn ). Wenn der Abstand zwischen P und dem Segment (p1 , pn ) höchstens ε ist, akzeptiere die Strecke (p1 , pn ) als Näherung für den gesamten Pfad. Andernfalls teile den Pfad an einem Punkt von P auf und nähere rekursiv die beiden Teile. Ein entscheidender Aspekt der pfadvereinfachenden Algorithmen ist das verwendete Toleranzkriterium: Wann wird ein Liniensegment als geeignete Näherung für einen Teilpfad akzeptiert? Die Originalversion des Douglas-Peucker-Algorithmus verwendete die euklidische Distanz zwischen den Punkten auf dem Teilpfad und der Gerade durch die Endpunkte. Generell könnte jedoch jedes Toleranzkriterium verwendet werden.

3.4

Trajektorienähnlichkeit

Viele grundlegende Fragestellungen der Trajektorienanalyse basieren im Wesentlichen auf einer Berechnung der Ähnlichkeit zweier Trajektorien. Wie aber können wir die Ähnlichkeit zweier Trajektorien messen? Mit zwei gegebenen (polygonalen) Trajektorien P und Q in Rd wollen wir eine Abbildung zwischen beiden Trajektorien erhalten, die auf einer geeigneten Metrik basiert. Bei dieser Abbildung sollten die zwei Trajektorien möglichst gut aufeinander passen (z. B. finde eine kontinuierliche Abbildung von den Punkten P zu den Punkten Q, bei der die Startpunkte und die Endpunkte beider Trajektorien miteinander verbunden sind). Die Wahl der Entfernungsmessung ist dabei jedoch kritisch und hängt entscheidend vom Bedeutungskontext der jeweiligen Anwendung ab. Hier betrachten wir nur die allgemeinsten Ansätze, Entfernungsmessungen zu definieren, und verweisen erneut auf die wichtige semantische Einbettung. Toohey und Duckham geben ein kurzen Überblick über gebräuchliche Ähnlichkeitsmaße und bieten außerdem entsprechend R Pakete um die Maße zu berechnen [33] Der vielleicht einfachste Ansatz, die Ähnlichkeit zweier Trajektorien zu definieren, bildet diese als Vektoren ab und verwendet dann eine Lp -Distanzmetrik als Ähnlichkeitsmaß. Verschiedene frühe Arbeiten erweiterten und verallgemeinerten diese Distanzmetrik (siehe z. B. [34–37]). Der größte Nachteil, eine Lp -Metrik als Entfernungsmessung zu verwenden, ist ihre Sensitivität gegenüber verrauschten Daten, insbesondere aber Ausreißern. Im Bestreben robustere Maße zu definieren, zogen Forscher sog. Edit-Distanzen in Betracht. Dabei wird die Anzahl der notwendigen Bearbeitungsoperationen bestimmt, die es braucht, um eine Sequenz von Bewegungsschritten in eine andere zu transformieren [38, 39]. Ein weiteres zweckentfremdetes Maß ist Dynamic Time Warping (DTW), das ursprünglich entwickelt wurde, um Wortmuster in der Spracherkennung zu vergleichen. Berndt und Clifford [40] verwendeten diese

166

P. Laube et al.

Technik als Erste, um die Ähnlichkeit in Zeitreihendaten zu messen. Die Technik wurde in mehreren Folgeartikeln verbessert [41–44]. Ein ähnliches Vorgehen sucht die längsten gemeinsamen Untersequenzen (longest common subsequences, LCSS) zwischen zwei Sequenzen und definiert die Distanz dann mithilfe der Länge der Untersequenz. Die LCSS zeigt, wie gut zwei Sequenzen übereinstimmen können, wenn eine Dehnung der Sequenzen ohne deren Umsortierung erlaubt ist (ähnlich wie DTW). Üblicherweise wird dabei eine ungefähre Übereinstimmung erlaubt. Verschiedene Varianten wurden vorgeschlagen, siehe Agrawal et al. [45]; Das et al. [46] und Vlachos et al. [47]. Laut Buchin et al. [48] sind die meisten Maße für die Trajektorienähnlichkeit zu sehr auf die statische Form der Trajektorien fixiert und lassen daher zeitliche Aspekte wie die Geschwindigkeit zu sehr außer Acht. Ein Ausnahme bildet etwas der Ansatz von Sinha und Mark [49]. Sie untersuchen Trajektorien im Sinne einer raumbezogenen Lebenslinie, d. h. einer Reihe von diskreten Raum-ZeitBeobachtungen der Wohnortsgeschichte eines Individuums. Sie verwenden den durchschnittlichen Abstand zwischen zwei Wohnorten, gewichtet diesen aber mit der Wohndauer als ein Entfernungsmaß. Trajcevski et al. [50] schlagen ebenfalls ein Entfernungsmaß vor, das den zeitlichen Aspekt berücksichtigt, erlauben allerdings Rotationen und Translationen für die Abbildungsfunktion. Dabei berücksichtigen sie die maximale Distanz zwischen den Stützpunkten der Trajektorien zu den jeweils gleichen Zeitpunkten. Diese Ansätze bieten ein natürliches zeitabhängiges Trajektorienähnlichkeitsmaß: den durchschnittlichen oder maximalen Abstand jeweils zeitlich korrespondierende[r] Stützpunkte. Nanni und Pedreschi [51] übernahmen diesen Ansatz indem sie die durchschnittliche euklidische Distanz zwischen zwei Trajektorien als Entfernungsmessung verwendeten. Man beachte, für derartige Ansätze müssen die Trajektorien mindestens teilweise zeitlich überlappen. Van Kreveld und Luo [52] verallgemeinerten die obige Definition, sie erlaubten eine zeitliche Verschiebung der Trajektorien und Ähnlichkeitsbetrachtungen von Teiltrajektorien (engl. subtrajectories), indem sie die Trajektorien im Zeitverlauf parametrisierten. Dieses Modell wurde in [48] weiter untersucht, wobei gezeigt wurde, wie das Entfernungsmaß effektiv angenähert werden kann. Das bis heute erfolgreichste grundlegende Entfernungsmaß ist wohl die FréchetMetrik, eines der natürlichsten Maße dieser Art. Die Fréchet-Metrik zwischen zwei Trajektorien P und Q (und ebenso für jedes beliebige Kurvenpaar) wurde erstmals 1906 von Fréchet [53] definiert. Sie erfordert eine kontinuierliche Abbildung f:P→Q zwischen den Trajektorien P und Q (z. B. f bildet einen Punkt P auf den Punkt Q ab), sodass W(f) = maxx∈P |x, f(x)| minimal ist. Man beachte, dass die erste Position von P auf die erste Position von Q und die letzte Position von P auf die letzte Position von Q abgebildet werden muss. Die Fréchet-Metrik wird gern auch mit der Herrchen-Leine-Hund Metapher illustriert: Man stelle sich eine auf P gehende Person und einen auf Q laufenden Hund vor. Die Fréchet-Distanz zwischen P und Q ist die Länge der kürzesten Leine, die sowohl der Person als auch dem Hund ihre jeweilige Bewegung entlang von P und Q ermöglicht, während sie durch die Leine miteinander verbunden sind (die Person oder der Hund dürfen

7 Computer-gestützte Bewegungsanalyse

167

dabei nicht rückwärtsgehen; ein Ort auf P und seine abgebildete Lokalität auf Q entsprechen den Positionen der Person und des mit ihr über die Leine verbundenen Hundes). Alt und Godau [54] führten das Freiraumdiagramm zweier Trajektorien als eine Datenstruktur ein, um die Fréchet-Distanz zwischen beiden zu berechnen. Buchin et al. [55] (siehe auch [56]) nutzten diese Datenstruktur später, um das Konzept der Fréchet-Distanz zu erweitern und damit nicht nur eine die euklidische Distanz minimierende Abbildung zu suchen, sondern um grundsätzlich jede Entfernungsfunktion anzuwenden. In ihrem Artikel führen sie mehrere Beispiele an, etwa eine Distanz abhängig von der Sichtbarkeit zwischen zwei mobilen Objekten oder von ihrer relativen Geschwindigkeit. Einige dieser Maße wurden angewendet für das abgeleitet Problem des Auffindens langer ähnlicher Teilstücke zwischen Trajektorien (engl. sub-trajectories) [57]. Clustering von Trajektorien ist eng mit Ähnlichkeit verwandt, bedingt es doch in der Regel die Verwendung von Distanzmaßen. Ganz generell kann Clustering effizienter ausgeführt werden, wenn das Distanzmaß metrisch ist, wie zum Beispiel das Clustering mithilfe der Fréchet-Distanz [58] oder der durchschnittlichen euklidischen Distanz [51]. Da Edit-Distanzen in der Regel nicht die Dreiecksungleichung erfüllen, sind sie meist nicht metrisch, was sie weniger attraktiv für bestimmte Aufgaben machen (z. B. Clustering). Generell gilt, die Verwendung eines nicht metrischen Maßes wie DTW oder LCSS erschwert in der Regel den Schritt des Clustering [59].

3.5

Bewegungsmuster

Dieser Abschnitt stellt algorithmische Verfahren vor, um in Trajektorien Bewegungsmuster zu finden. Einige der interessantesten raumzeitlichen Muster sind periodischer Natur. Man stelle sich als Beispiel eine durch Tracking eines Elefanten gewonnene Trajektorie vor. Es ist leicht herauszufinden, welche Gebiete für den Elefanten wichtig sind, z. B. wo er viel Zeit verbringt. Wertvoller wäre allerdings zu wissen, ob der Elefant das gefundene Gebiet mit einer gewissen Regelmäßigkeit besucht, etwa als Futterplatz oder als Paarungsort. Man beachte jedoch, dass Besuche regelmäßig sein können, auch wenn die Region nicht jede Nacht, jede Woche oder jedes Jahr besucht wird. Es könnte sich um ein regelmäßiges Ereignis handeln, selbst wenn es nur 50 % der Male stattfindet, z. B. kann ein Ereignis regelmäßig sein, wenn es nur an vier Tagen der Woche stattfindet. Djordjevic et al. [60] präsentieren ein allgemeines Werkzeug, das periodische Muster findet, wenn eine Sequenz von Ereignissen mit Zeitstempel gegeben ist. Mamoulis et al. [61] untersuchten den Spezialfall, wenn die Periode vorgegeben wird. Sie teilen den Raum in eine Reihe von Regionen auf, was es ihnen ermöglicht, ein Muster P als eine Sequenz mit der Länge τ in der Form r0 , r1 , . . ., rτ −1 zu definieren, wobei ri eine räumliche Region oder den Gesamtraum * darstellt. Wenn eine Entität einem Muster häufig genug folgt, wird das Muster als häufig bezeichnet. Diese Definition verlangt jedoch keine Aussage über die Dichte der Regionen, d. h.

168

P. Laube et al.

wenn die Regionen zu groß gewählt werden, finden sich sehr viele häufige Muster. Hier schafft die Zusatzbedingung Abhilfe, dass die Punkte jeder Teiltrajektorie einen Cluster innerhalb der räumlichen Region bilden sollen. Chawla und Verhein [62] definierten raumzeitliche Assoziationsregeln (SpatioTemporal Association Rules, STARs), die beschreiben, wie Entitäten sich im Zeitverlauf über Regionsgrenzen hinwegbewegen. Sie gehen davon aus, dass der Raum in Regionen beliebiger Größe und Form aufgeteilt ist. Das Ziel ist nun, auffällig besuchte Regionen zu finden sowie Regeln, die die Bewegung der Entitäten durch die Regionen vorhersagen. Regionen sind auffällig, wenn Entitäten diese in großer Zahl verlassen (Senken), in großer Zahl betreten (Quellen) oder in großer Zahl betreten und wieder verlassen (Durchgangszellen). Laube et al. [63] definierten 2004 eine Sammlung raumzeitlicher Muster, die auf Bewegungsparametern (wie etwa Bewegungsrichtung oder Geschwindigkeit) und Position beruhen, (wie z. B. „Herde“, „Führung“, „Annäherung“ und „Begegnung“) und lieferten Algorithmen, um diese effizient zu finden. Das Ergebnis waren mehrere Folgeartikel, die die algorithmische Suche derartiger Muster thematisierten. Benkert et al. [64] modifizierten die ursprüngliche Definition einer Herde als eine Menge von Entitäten, die sich während eines definierten Zeitintervalls nahe beieinander bewegen, siehe Abb. 3. Man beachte, dass nach dieser Definition die an der Herde beteiligten Entitäten während des gesamten Zeitintervalls dieselben sein müssen. Benkert et al. [64] stellten auch fest, dass eine Herde mit m Entitäten,

Bewegungsmuster „Herde“ mit drei Entitäten

Sammelplatz

häufiger Standort periodisches Muster

Abb. 3 Darstellung der Trajektorien von vier Entitäten, die sich über 20 Zeitschritte bewegen. Die folgenden Muster sind hervorgehoben: Herde mit drei Entitäten über 5 Zeitschritte hinweg, ein periodisches Muster, in der eine Entität mit einer gewissen Periodizität einem raumzeitlichen Muster folgt, einen Sammelplatz, an dem sich drei Entitäten über 4 Zeitschritte hinweg treffen, und schließlich ein häufig besuchter Standort, also eine Region, in der eine einzelne Entität viel Zeit verbringt

7 Computer-gestützte Bewegungsanalyse

169

die sich über k Zeitschritte hinweg zusammen bewegen, einem Cluster der Größe m in einem 2-k-dimensionalen Raum entspricht. Das Auffinden einer Herde kann daher zu einem Clustering-Problem in einem höherdimensionalen Raum umformuliert werden. Höherdimensionale Räumen können mit bekannten, NP-schweren Dimensionsreduktionstechniken behandelt werden. Diese Erlauben das Auffinden einer Herde mit einer bestimmten Größe oder einer bestimmten Existenzdauer. Der Spezialfall einer stationären Herde wird häufig als meeting pattern bezeichnet [65]. Kalnis et al. [66] definieren und suchen mobile Cluster, die weiter existieren auch wenn gewissen Entitäten zum Cluster dazustoßen oder diesen verlassen. Dazu verwenden sie für alle Zeitschritte ti gewöhnliche Clusteringalgorithmen, um Cluster mit einer minimalen Anzahl von Entitäten und einer minimalen Dichte zu finden. Dann vergleichen sie jeden für ti gefundenen Cluster c [mit] den entsprechenden (bewegten) Cluster c‘ für den darauffolgenden Zeitschritt ti−1 . Wenn c und c‘ genug Entitäten gemeinsam haben, was formell als Schwellenwert angegeben wird, kann c‘ aus c hergeleitet werden, was in einem beweglichen Cluster resultiert. Sie machen mehrere Vorschläge, wie die Rechengeschwindigkeit ihrer Methode verbessert werden könnte, z. B. indem unnötige da redundante Clustervergleiche vermieden werden, oder indem Näherungslösungen statt exakte Lösungen für die mobilen Cluster verwendet werden. Weitere in diesem Kapitel aber nicht besprochene Bewegungsmuster suchen Führungsverhalten [67], beliebte Orte [68], Formationsmuster wie etwa Gänsemarsch [55] oder Muster im Pendlerverkehr [58]. Mehrere Erkennungsverfahren für Herde verwenden eine räumliche Nachbarschaft, z. B. eine kreisrunde Nachbarschaft mit gegebenem Radius. Tatsächlich kann sich die Wahl einer geeigneten räumlichen Nachbarschaft als schwierig erweisen, da es Situationen gibt, in denen intuitiv zusammengehörige Objekte wohl eine zusammenhängende Menge bilden, sich aber nicht innerhalb eines Kreises von gegebener Größe aufhalten. Um dieses Problem zu umgehen, verwenden Jeung et al. [69, 70] das Konzept einer Dichteverbindung, was die Formierung beliebiger Ausdehnungen der Gruppen ermöglicht. Sie definieren einen Konvoi als eine Gruppe aus mindestens m Objekten, die sog. dichteverbunden sind, wobei Punkte dann dichteverbunden sind, wenn sie paarweise innerhalb eines Distanzschwellenwertes epsilon.

3.6

Visualisierung, Visual Analytics und Explorative Analyse von Bewegungsdaten

Die Bewegungsanalyse wird häufig als eine Kombination aus Geovisualisierung und explorativer Datenanalyse durchgeführt [10]. Visuelle und explorative Analyseverfahren kombinieren die Geschwindigkeit und „Geduld“ von Computern mit der hervorragenden Fähigkeit des Menschen, Muster in bildlichen Darstellungen zu entdecken. Auf visueller Exploration beruhende Verfahren versuchen das Erwartete zu bestätigen oder das Unerwartete zu entdecken.

170

P. Laube et al.

Manche einfache Bewegungsmuster werden durch einfaches Kartieren der Bewegungstrajektorien auf einer zweidimensionalen Karte ersichtlich. Auffällige Bündel von Trajektorien entsprechen z. B. häufig benutzten Korridoren. Die Spuren von weniger gebündelten Trajektorien repräsentieren dagegen oft willkürlichere Bewegungen, wie etwa von grasenden Tieren oder flanierenden Spaziergängern. Die Anwendung herkömmlicher GIS-Analysewerkzeuge für Punkte und Linien, hat sich als eine sehr effektive Methode zur Erstanalyse von Bewegungsdaten herausgestellt. Beispiele hierfür sind GIS-Werkzeuge für die Generalisierung von Linien oder zur Interpolation von Feldern und Dichteoberflächen. Brillinger et al. [71] verwenden ein Vektorfeld mit regelmäßig angeordneten Messpunkten, um einen Überblick von sich in ihrem Lebensraum bewegenden Tieren zu zeigen, wobei jeder Vektor das für diesen Ort aggregierte Bewegungsazimuth und die entsprechende Durchschnittsgeschwindigkeit darstellt. Dykes und Mountain [72] verwenden zum Auffinden von Aktivitätsmustern eine hotspot-Analyse auf einer kontinuierlichen Dichteoberfläche aus aggregierten Beobachtungspunkten. Auch dabei kommen konventionelle GIS-Werkzeuge zum Einsatz, die ursprünglich für die Analyse von digitalen Höhenmodellen entwickelt wurden: Derartige Algorithmen suchen häufig aufgesuchte „Gipfel“ (hotspots) und stark frequentierte „Rücken“ (Bewegungskorridore) [72]. Auch Animation eignet sich, um einfache Bewegungsmuster von Individuen oder Gruppen aufzudecken [72, 73]. Aber auch komplexere Koordinationsmuster wie etwa Schwarmverhalten oder das Herausbilden und Auflösen von Ansammlungen werden in Animationen klar sichtbar, selbst wenn eine große Anzahl von Individuen animiert werden muss. Eine häufig verwendete Darstellung für die visuelle Untersuchung von Bewegungsdaten ist der 3-D-Raumzeitwürfel [13]. In der speziellen Geometrie eines derartigen dreidimensionalen Raum-Zeit-Aquariums erzeugen statische Phasen vertikale Zeitlinien, mobile Phasen hingegen geneigte Zeitlinien, wobei deren Neigung Aussagen über das Geschwindigkeitsverhalten erlaubt. Allerdings ist das Konzept von Lebenslinien in Raumzeitwürfeln vor allem bei einer kleinen Anzahl von Entitäten effizient. Je mehr Entitäten das Raum-Zeit-Aquarium bevölkern, desto mehr Trajektorien überlappen und verdecken sich, und desto unklarer und überladener wird die dreidimensionale Darstellung. Die explorative Analyse von sehr großen Bewegungsdatensätzen verlangt meist mehr als nur visuelle Verfahren. In der jüngsten Zeit empfehlen immer mehr Autoren für die Analyse von sehr großen Bewegungsdatensammlungen die Anwendung von Visual Analytics Verfahren [74, 75]. Visual Analytics kombiniert gezielt Datenbanktechnologien, algorithmische Datenverarbeitung und visuelle Analysetechniken, in einer noch engeren Zusammenarbeit von Computern und menschlichen Analysten [76]. Als eine Weiterentwicklung bestehender explorativer Datenanalyseverfahren verwendet Visual Analytics insbesondere Methoden, die für Daten verschiedener Datentypen und aus heterogenen Quellen, und sogar für widersprüchliche und unvollständige Daten geeignet sind [77]. Visual Analytics Werkzeuge für Bewegungsdaten beinhalten unter anderem Methoden für die Aggregation von Trajektorien, zum Gruppieren und Segmentieren von Bewegungsdaten, Raum- und

7 Computer-gestützte Bewegungsanalyse

171

Zeittransformationen sowie Clustering [76]. Solche Methoden sind typischerweise in einer interaktiven Umgebung miteinander verknüpft, in der das Ergebnis eines Schrittes als Eingabe des folgenden Schritts dient [78].

4

Anwendungsgebiete der Computer-gestützten Bewegungsanalyse

4.1

Verhaltensökologie

Verhaltensmuster sind zentral in der Verhaltensökologie. Bisher wurden die Bewegungsmuster von Individuen und Gruppen meist direkt beobachtet und nicht aus Trackingdaten gewonnen. Es gibt jedoch immer mehr Projekte, die Tierbewegungsdaten mit GPS-Halsbändern sammeln [7]. Außerdem gibt es heute sogar Technologien, die es ermöglichen, die Position von Insekten wie z. B. Schmetterlingen oder Bienen zu tracken. In einer umfassenden ökologischen Studie fanden Holyoak et al. [4] im Jahrzehnt zwischen 1997 und 2006 fast 26.000 veröffentlichte Artikel, welche die Bewegung von Organismen untersuchten. Die Bewegungsökologie hat sich zu einem zentralen Forschungsfeld der Ökologie entwickelt [79], davon zeugt auch das 2012 lancierte Journal „Movement Ecology“ (http://movementecologyjournal.biomedcentral.com). Besonders in der Verhaltensökologie versuchen Forscher aus Bewegungsspuren abzuleiten, wie interne und externe Faktoren das Bewegungsverhalten beeinflussen [80]. Biologen können für individuelle Tiere populäre Orte oder regelmäßig von vielen Tieren frequentierte „hotspots“ aufspüren. Es ist möglich, soziale Interaktionen, die letztendlich die Sozialstruktur innerhalb einer Tiergruppe offenbaren, zu untersuchen. Ein wichtiger Schwerpunkt ist dabei die Verbindung von Bewegungsdaten mit weiteren Variablen, wie etwa Messwerten von Beschleunigungsmessern [81]. Im größeren Maßstab spiegeln Tierbewegungsdaten sehr gut das Migrationsverhalten von Tieren wieder. Letztlich sind sich die Ökologen einig, ein vertieftes Verständnis von Bewegungsverhalten ist kaum möglich nur aus dem Studium der Geometrie des Bewegungspfades. Daher werden vermehrt Werkzeuge entwickelt, um die Pfade mit Umgebungsvariablen anzureichern [82]. Brownsche Brücken sind ein besonders wichtiger Beitrag der Ökologen zur computer-gestützten Bewegungsanalyse [83]. Brownsche Brücken zielen auf eine realistische Schätzung des effektiven Bewegungspfades zwischen zwei aufeinanderfolgenden Positionen.

4.2

Mobilität und Transportwesen

Die menschliche Mobilität in Stadtgebieten kann auf unterschiedliche Weise aufgezeichnet und genutzt werden. Beispielsweise können Mobiltelefone getrackt werden, um Daten über die ungefähren Aufenthaltsorte von Personen zu gewinnen [1, 19]. Ein tief greifendes Verständnis darüber, wie sich Menschen in einem städtischen Kontext bewegen, ist grundlegend für die Stadtplanung, etwa wo

172

P. Laube et al.

neue Straßen gebaut oder das öffentliche Verkehrsnetz erweitert werden soll. Die Analyse der menschlichen urbanen Mobilität kann außerdem verwendet werden, um das Design von standortbezogenen Diensten (location-based services, LBS) zu optimieren. Im Verkehrsmanagement kann eine automatische Analyse von Bewegungsmustern helfen unerwünschte oder gar gefährliche Konstellationen mobiler Entitäten zu identifizieren, wie etwa Staus oder gefährliche Annäherungen von Verkehrsflugzeugen. Verkehrsmanagementanwendungen können auf einfachen Abfragen an auf Bewegung spezialisierte Datenbanken (Moving Object Databases) basieren [84]. Es wurden aber auch Abfrageformalismen entwickelt für anspruchsvollere Bewegungsmuster, die neben der Position auch Geschwindigkeit, Bewegungsrichtung und andere Aktivitätsparameter einbeziehen [84]. Die computer-gestützte Bewegungsanalyse ist außerdem ein wichtiger Eckstein in der Methodik des aufstrebenden Forschungszweigs der Transportinformatik (Computational Transportation Science, CTS), die intelligente Transportsysteme untersucht [85]. Die Transportinformatik zielt darauf, Effizienz, Sicherheit und Nachhaltigkeit von Transportsystemen durch Ausnutzung von Informationstechnologien und Rechnerallgegenwart (engl. ubiquitous computing) zu verbessern.

4.3

Überwachung und Sicherheit

Kaum jemand bezweifelt, dass Sicherheitsorganisationen, Polizei und Geheimdienste Zugang zu detaillierteren, die Bewegung von bestimmten Menschen erfassenden Datensätzen haben, z. B. Koordinaten durch die Überwachung von Mobiltelefonen, Kreditkartennutzung oder Aufzeichnungen von Überwachungskameras. Die Bewegung von verdächtigen Personen oder Kriminellen kann verfolgt werden, oder aber es können sich Verdachtsmomente erst aus der Bewegungsanalyse ergeben. Dazu braucht es zuerst eine Definition von „normalem Verhalten“ um anschließend nach Objekten zu suchen, die vom Normalen abweichen [86]. Bestimmte Aktivitäten und die dazugehörigen Bewegungsmuster folgen vorherbestimmten Signaturen, die wiederum automatisch in Tracking Daten oder in Überwachungsvideos gefunden werden können. Ein solches Beispiel ist die automatische Erkennung von Vandalismus oder aggressivem Verhalten in Überwachungsvideos [87]. Bewegungsmuster sind auch ein Thema im Katastrophenmanagement. Blanke et al. [88] überwachten die Bewegung von Menschenmassen während einem Festival, wo Bewegungsmuster wie Stauungen und Massenansammlungen zentrale Sicherheitsaspekte sind.

4.4

Marketing

Ein weiteres Anwendungsfeld bilden Einkaufshäuser und Supermärkte, welche mit Trackingtechnologie ausgestattet wurden um das Verhalten der Konsumenten zu studieren. Durch ein Tracking von Einkaufswagen und Körben kann die Sicht-

7 Computer-gestützte Bewegungsanalyse

173

barkeit von Produktkategorien und die Bewegung verschiedener Kundenkategorien analysiert werden, um Zusammenhänge zwischen Produktdurchdringung (wie viele Kunden passieren ein Produkt), Verweildauer (vor dem Produkt verbrachte Zeit) und Konversion (wie viele Kunden kaufen das Produkt) herzustellen. Weitere spannende Fragen betreffen den Einfluss des Grundrisses auf die Laufwege und wie dies letztendlich das Einkaufsverhalten der Kunden beeinflusst. Larson et al. [89] analysierten einen großen Satz von Kundenpfaden, um die tatsächlichen Bewegungsmuster in einem Supermarkt zu verstehen. Die Analyse wurde mit multivariaten Clusteringalgorithmen durchgeführt. Sie stellten fest, dass hinsichtlich des Kaufverhaltens die im Geschäft verbrachte Zeit eine wichtige Rolle spielt und es unterschiedliche Clusterkonfigurationen für kurze, mittellange und lange Aufenthalte gibt. Ihre Ergebnisse räumten einige verbreitete Mythen über das Laufverhalten von Kunden in Einkaufsläden aus. So zeigte sich, dass die Kunden weit weniger als angenommen systematisch durch die Gänge streifen sondern viel eher ganz gezielt gewisse Gestelle aussuchten. Derartige Studien werden an Bedeutung gewinnen, da nachgewiesen wurde, dass Kaufentscheidungen oft erst im Geschäft getroffen werden und stark mit Werbung am Kaufort zusammenhängen. Nach Schätzungen fallen in Supermärkten 70 % und in Großhandelsketten 74 % der Kaufentscheidungen innerhalb des Geschäfts.

4.5

Bewegungsanalyse im Profisport

Technologische Fortschritte beeinflussen auch die Bewegungsanalytik im Profisport. Beispielsweise bieten große Tennisturniere dreidimensionale Rekonstruktionen für jeden einzelnen gespielten Punkt, indem Spieler und Bälle getrackt werden. Viele Fußballtrainer analysieren routinemäßig Videoarchive der Spiele, um mehr über das Verhalten und die Strategien des Gegners zu erfahren [91]. Es gibt bereits Software, die automatisch grundlegende statistische Daten über das Spiel und die Leistung der Spieler erstellt [92]. Meist werden dabei einfache Bewegungsparameter abgeleitet, wie etwa die von Spielern zurückgelegte Distanz, ihre maximale und durchschnittliche Geschwindigkeit, die Anzahl der von ihnen gespielten Pässe, die Anzahl der Schüsse aufs Tor, die Ballgeschwindigkeit beim Freistoß oder Heatmaps der Raumnutzung einzelner Spieler. Es gab aber auch Versuche, komplexere Analysewerkzeuge zu entwickeln. Fujimura und Sugihara verwendeten Dominanzregionen, in denen gewisse Spieler ihre Kontrahenten dominieren, und analysierten die räumliche Verteilung derartiger Dominanzregionen [93]. Horton et al. präsentierten sogar ein Modell um die Güte eines geschlagenen Passes zwischen Fußballspielern automatisch zu klassifizieren [94]. Memmert und Perl [95] und Grunz et al. [96] schlagen vor, neuronale Netze für die Analyse komplexer Spielszenarien und Mannschaftstaktiken zu verwenden. Gudmundsson und Wolle [90] wenden die von Buchin et al. [58] entwickelte Methode zum Clustering von Trajektorien in einer Fußballanwendung, um häufige Bewegungen individueller Spieler und von Spielergruppen zu untersuchen (Abb. 4). Ganz generell gilt, das Anwendungsfeld der Sportanalytik ist noch in der Anfangs-

174

P. Laube et al.

Abb. 4 Screenshots aus [90], (a) Für Spieler erreichbare Regionen (rot für die Mannschaft am Ball, blau für die Gegner), (b) Bewegungsspuren eines Spielers während eines Fußballspiels, ein Cluster mit häufigen Bewegungen ist rot hervorgehoben

phase und umfangreiche Forschungen sind notwendig, um die Werkzeuge breiter verfügbar zu machen.

4.6

Bewegung in abstrakten Räumen

Im Unterschied zu Tracking und Analyse der Bewegung von Menschen und Tieren auf der Erdoberfläche ist es auch möglich, Trajektorien der Bewegung von Objekten in abstrakten Räumen – auch in höheren Dimensionen – zu gewinnen und zu analysieren. Jede kontinuierlich in ihren x- und y-Werten aktualisierte Punktwolke produziert individuelle Trajektorien, die damit zugänglich für die Bewegungsanalyse sind. So ist es z. B. durchaus möglich, aus Abstimmungsdaten einen Raum aufzuspannen entlang der ideologischen Dimensionen „politisch links gegen politisch rechts“ oder „liberal gegen konservativ“. In derartigen abstrakten Räumen kann hernach das Abstimmungsverhalten von Politikern oder ganze Bezirken verfolgt werden. Verändert sich die ideologische Orientierung der Politiker oder Bezirke mit der Zeit, entstehen Bewegungstrajektorien. Die Analyse der sich in diesem abstrakten Raum bewegenden Bezirke kann interessante Muster der politischen Veränderung aufzeigen [97].

4.7

UbiComp und Sensor-Netzwerke

Die jüngsten technologischen Fortschritte im Bereich der mobilen Informationsund Kommunikationstechnologien bieten Hand für eine neue Generation integrierter räumlicher Systeme, wobei Minicomputer in alltägliche Objekte und Umgebungen eingebettet werden (Rechnerallgegenwart, engl. ubiquitous computing, oder UbiComp). Solche eingebetteten Systeme stellen in einer großen Breite von Anwendungen Dienste zum Sammeln und Verarbeiten von Bewegungsdaten bereit – vom Verkehrsmanagement, übers Rettungswesen bis hin zu Überwachungssystemen,

7 Computer-gestützte Bewegungsanalyse

175

von smart homes zu smart citites, und von ökologischem Monitoring zu „smart farming“. Geosensornetzwerke sind drahtlose Netzwerke aus miniaturisierten ComputerPlattformen, welche geographische Variablen messen [98]. Geosensornetzwerke sind eine Schlüsseltechnologie im Monitoring unserer gebauten und natürlichen Umwelt. Nicht nur sind die aus solchen eingebetteten Systemen hervorgehenden Informationen sehr komplex, auch verschwimmt bei UbiComp zunehmend die Trennung zwischen Datenerfassung und Datenauswertung. Anstatt räumliche Daten in umfassenden, leistungsfähigen Datenbanken oder GIS-Systemen zu sammeln, werden neue dezentrale Verarbeitungsmethoden benötigt, bei der sich individuelle Rechnereinheiten kooperativ einer Aufgabe widmen können, ohne dass einzelne Knotenpunkte Zugriff auf den gesamten Systemstatus haben [99]. In solchen Systemen kann die räumliche Datenverarbeitung irgendwo stattfinden [100]. Mobilität ist ein zentraler Aspekt vieler eingebetteter räumlicher Systeme. Man stelle sich in der Gesundheitsvorsorge ein System vor, in dem Sensoren das Gangbild von pflegebedürftigen Menschen überwachen und im Fall eines Sturzes ein Kontrollzentrum alarmieren [101]. Oder man stelle sich im Verkehrsmanagement ein intelligentes Transportsystem vor, in dem die Fahrzeuge miteinander kommunizieren und so Information über die Verkehrsbelastung im System anreichern [102]. Im gleichen Kontext schlagen Laube et al. [103] ein Verfahren vor, um mit dezentralen Algorithmen Herdenverhalten (engl. flocking) festzustellen. Die mobilen Objekte, die alle nur ein Teilwissen über den Gesamtzustand des Systems haben, müssen dazu lokal zusammenarbeiten um das Bewegungsmuster auf dezentrale Weise zu erkennen.

5

Datenschutz

Aus der raumzeitlichen Spur des Bewegungsverhaltens eines Menschen kann man potenziell ableiten, wo diese Person lebt, wo sie arbeitet, welche Orte sie regelmäßig besucht und wann dies geschieht, und wo sie andere Menschen trifft. Da räumliche Informationssysteme fähig sind, raumzeitliche Daten und persönliche Informationen schnell zu integrieren, sind Datenschutzprobleme ein wichtiger Aspekt für die gesamte Geoinformatik [104] und gerade für die Bewegungsanalyse höchst relevant. Detaillierte individuelle Bewegungsdaten sind besonders sensible, die Privatsphäre betreffende Informationen. Nutzer eines Smartphone wollen von cleveren ortsgebundenen Diensten profitieren und gleichzeitig ihre Privatsphäre schützen. Die Krux mit Bewegungsdaten ist, dass konventionelle Anonymisierungsstrategien nur begrenzt angewendet werden können. Detaillierte Trajektorien enthalten typischerweise Orte von persönlicher Bedeutung (Wohnort, Arbeitsstelle) und persönliche Bewegungsmuster (tägliches Pendeln), welche quasi als Kennung dienen können und eine erneute Identifikation anonymisierter Daten ermöglichen [105]. Es gibt mehrere Strategien, um die Privatsphäre bei Positionsdaten zu schützen. Die verschiedenen Strategien können in Vorschriften, Datenschutzerklärungen, Anonymisierung und Verschleierung kategorisiert werden. Die folgende Liste fasst

176

P. Laube et al.

einen ausführlichen Überblick zu Datenschutzstrategien aus Duckham und Kulik [106] zusammen. • Zum Schutz der Privatsphäre entwickelte Vorschriften regeln eine faire Nutzung persönlicher Daten. Solches Regelwerk definiert Transparenz (Deklaration, wer Informationen sammelt), Einverständnis-Erklärungen und Nutzungsbeschränkungen (Individuen erklären sich mit dem Datensammeln für eine gegebene eingeschränkte Nutzung einverstanden), Datenzugriff (auf gespeicherte Informationen), Integrität und Sicherheit (die Anbieter gewährleisten müssen) sowie Haftung (Datensammler haften bei Missbrauch) [107]. Wie strikt diese Vorschriften auch immer sein mögen, einen ultimativen Schutz der Privatsphäre können sie kaum gewährleisten [106]. So gibt es beispielsweise rechtliche Grundlagen zur Vorratsdatenspeicherung in der Europäischen Union und in vielen ihrer Mitgliedstaaten. • Datenschutzerklärungen sind auf Vertrauen basierende, den Missbrauch von Positionsdaten verhindernde Absichtserklärungen [108]. Während Vorschriften auf Garantien für die Allgemeinheit zielen, sollten Datenschutzerklärungen flexibel an individuelle Nutzer oder gar einzelne Prozesse angepasst werden können. Eine Datenschutzerklärung könnte beispielsweise festlegen, wie lange Informationen über einen Vorgang gespeichert werden dürfen. Allerdings, Richtlinien können den Datenschutz genauso wenig erzwingen wie Vorschriften. • Anonymisierungsverfahren zielen darauf, die Identität eines Menschen von seinen Positionsdaten zu trennen. Beispielsweise versteckt k-Anonymität jede sensible Trajektorie zwischen mindestens k ebenso gut passenden, aber zufallsgenerierten und damit gefälschten Trajektorien [105, 109]. Anonymisierungsverfahren sind auf einen vertrauenswürdigen Anonymisierungsdienst angewiesen und funktionieren nicht bei Anwendungen, die eine Authentifizierung benötigen. • Im Kontext dieses Kapitels ist die Verschleierung wahrscheinlich die aussichtsreichste Möglichkeit, den positionsbezogenen Datenschutz zu gewährleisten. Verschleierung ist der Prozess der absichtlichen Qualitätsverminderung der persönlichen Positionsdaten [110]. Beispielsweise reicht es für viele standortbezogene Dienste absolut aus, nur die Kennung der nächsten Mobilfunkzelle preiszugeben, während der genaue Standort versteckt bleiben kann. Verschleierung kann auf beliebigen Kombinationen von verminderter Genauigkeit, Präzision und Unschärfe basieren (engl. accuracy, precision, vagueness) – alle drei in der Geoinformatik sehr geläufig Konzepte. Beispielsweise kann ein Individuum bei einer Nachbarschaftsabfrage („wo ist der nächste Starbucks?“) seine Position verschleiern, indem es dem Dienstanbieter eine Liste mit Positionen schickt, von denen nur eine der tatsächlichen Position des Individuums entspricht [111]. Abschließend kann festgehalten werden, dass der Privatsphärenschutz bei der Verarbeitung von Bewegungsdaten kein triviales Problem darstellt [112, 113]. Mit Bewegungsdaten arbeitende Fachleute müssen sich der dünnen Linie zwischen Möglichkeiten und Risiken bewusst sein [114]. Bewegungsanalyse ist nicht nur

7 Computer-gestützte Bewegungsanalyse

177

eine technische oder algorithmische Fragestellung, sondern auch eine ethische Herausforderung [115].

6

Schlussfolgerungen und Ausblick

Bald nachdem sich Geoinformationssysteme Mitte der 1990er-Jahre erfolgreich als Werkzeuge zur Verarbeitung von Raumdaten etabliert hatten, kam Kritik über das statische Wesen dieser Systeme auf. Wichtige Stimmen meinten, es sei höchste Zeit, raumzeitliche Systeme zu entwickeln [116], und sie forderten die GISGemeinschaft auf, über die Metapher der Momentaufnahme hinaus zu denken [117]. Zweieinhalb Jahrzehnte später kann festgestellt werden, dass das statische Erbe der Kartographie tatsächlich überwunden wurde und Geoinformationssysteme und verwandte Analysekonzepte in vieler Hinsicht dynamische Konzepte und Funktionen integriert haben. Der wohl größte Fortschritt fand zweifellos im Zusammenhang mit der Analyse von Bewegungsdaten statt, bildet doch die Bewegung von Punktobjekten die vermeintlich einfachste Form von raumzeitlicher Dynamik. Im letzten Jahrzehnt hat die Analyse von Bewegungsspuren als ein sozioökonomisch höchst relevantes Teilgebiet der Geoinformatik erheblich an Fahrt aufgenommen. Verschiedene Forschungszweige trugen zu einer kontinuierlich wachsenden Sammlung grundlegender Verfahren für die Verarbeitung und Analyse von Bewegungsdaten bei, darunter Geographie, algorithmische Geometrie, Datenvisualisierung, Datenbankrecherche sowie Data-Mining. Der Werkzeugkasten der Bewegungsanalyse enthält sowohl Konzepte, um Trajektorien zu modellieren, indexieren und segmentieren, als auch grundlegende Analysewerkzeuge, die sich an Bewegungsähnlichkeiten und eine Reihe wichtiger Bewegungsmuster richten. Die Bewegungsanalyse hat im letzten Jahrzehnt auch ihre eigene quantitative Revolution erfahren. Wie auch andere Forschungszweige hat sich die Geographie von einer datenarmen zu einer datenreichen und folglich stark rechnerbasierten Disziplin gewandelt [8]. Zwar war die Bewegungsanalyse von Beginn an eine datenintensive Aufgabe, aber die Leistungsfähigkeit der Analysewerkzeuge wuchs mit ihren Datenquellen. Ein großer Teil der existierenden Analysewerkzeuge und der bisher entwickelten Verfahren sind ziemlich technologiegesteuert und deterministisch, häufig benötigen sie Schwellenwerte oder strikte Parameter, und sie produzieren lediglich randscharfe, diskrete Muster. Während diese ersten, aus heutiger Sicht vielleicht naiven Methoden geholfen haben ein neues Forschungsfeld zu definieren, wird immer klarer, dass auch die computer-gestützte Bewegungsanalyse mit Ungenauigkeit und Unschärfe umgehen muss. Es hat sich gezeigt, dass die Einfachheit von Bewegungsdaten – einfachste Punkte in einer Reihe – die Gefahr trägt, Einfachheit vorzutäuschen [118]. Mit immer mehr Bewegungsstudien erkennen wir, dass wir weniger mit Sicherheit sagen können, je genauer wir hinsehen. Technologische Fortschritte begünstigen die Nachverfolgung von Individuen in vielen Anwendungsbereichen einschließlich Ökologie, Transportwesen, Sicherheit,

178

P. Laube et al.

Marketing und sogar Sportanalyse. Die meisten Studien konzentrieren sich jedoch auf pragmatische Verfahren und liefern proprietäre Lösungen für ihre sehr spezifischen Fragestellungen. Daher ist es schwierig, in der Forschungsgemeinschaft eine gemeinsame Strategie zu finden, die helfen würde, Ergebnisse zu teilen, Methoden auszutauschen sowie auf eine fundierte Theorie der Bewegungsanalyse hinzuarbeiten. Trotz wiederholter Versuche fehlen beispielsweise nach wie vor etablierte Kategorisierungen oder Ontologien von Bewegungsmustern [76, 119, 120]. Eine weitere Herausforderung liegt darin, die Bewegung quantitativ mit dem sie einbettenden geographischen Kontext in Beziehung zu setzen. Grasende Schafe könnten beispielsweise ein bestimmtes Bewegungsmuster nur dann ausführen, wenn sie auf einem bestimmten Vegetationstyp grasen. Möwen zeigen möglicherweise ein bestimmtes Flugmuster nur in der Nähe von bestimmten Landschaftsmerkmalen wie Flüssen oder Autobahnen. Und das von einem nachverfolgten Fahrzeug ausgeführte Bewegungsmuster wird offensichtlich eng von der Umgebung, in der sich das Auto bewegt, abhängen, sei es ein Parkplatz, eine historische Altstadt oder eine Autobahn. Während die meisten derzeitigen Bewegungsanalysetechniken ihren Fokus nur auf die Eigenschaften der Bewegungsspur oder Interaktionen zwischen den Objekten richten (Effekte zweiter Ordnung), sollte ein tieferes Verständnis von Bewegung auch die Geographie des lokalen Kontexts, in den die Bewegung eingebettet ist, einschließen (Effekte erster Ordnung). Alles in allem ermöglichen die großen verfügbaren Bewegungsdatenmengen faszinierende Einblicke in viele, sozioökonomisch höchst relevante, dynamische Prozesse unserer natürlichen und gebauten Umwelt. Mit Erfolg haben sich Geographie und Informatik zusammengetan, um den für die Ausnutzung der Bewegungsinformationen notwendigen Werkzeugkasten bereitzustellen. Die jetzt notwendige Verfeinerung der Methoden kann durch die traditionellen Stärken der beteiligten Disziplinen erreicht werden: Expertise in Datenintegration, Unsicherheit und Maßstabeffekten aus der Geographie, und die Behandlung von großen Datenvolumen und effektives Algorithmendesign aus der Informatik.

Literatur 1. Gonzalez, M.C., Hidalgo, C.A., Barabasi, A.L.: Understanding individual human mobility patterns. Nature 453, 779–782 (2008) 2. Kellerer, W., Bettstetter, C., Schwingenschlogl, C., Sties, P., Steinberg, K.E.: (Auto) mobile communication in a heterogeneous and converged world. IEEE Pers. Commun. 8, 41–47 (2001) 3. Gudmundsson, J., Wolle, T.: Football analysis using spatio-temporal tools. Comput. Environ. Urban Syst. 47, 16–27 (2014) 4. Holyoak, M., Casagrandi, R., Nathan, R., Revilla, E., Spiegel, O.: Trends and missing parts in the study of movement ecology. Proc. Natl. Acad. Sci. USA 105, 19060–19065 (2008) 5. Galton, A.: Dynamic collectives and their collective dynamics. In: Cohn, A.G., Mark, D.M. (Hrsg.) Spatial Information Theory, Proceedings. Lecture Notes in Computer Science, Bd. 3693, S. 300–315. Springer, Heidelberg (2005) 6. Claussen, D.L., Finkler, M.S., Smith, M.M.: Thread trailing of turtles: methods for evaluating spatial movements and pathway structure. Can. J. Zool. 75, 2120–2128 (1997)

7 Computer-gestützte Bewegungsanalyse

179

7. Tomkiewicz, S.M., Fuller, M.R., Kie, J.G., Bates, K.K.: Global positioning system and associated technologies in animal behaviour and ecological research. Philos. Trans. R. Soc. B 365(1550), 2163–2176 (2010) 8. Miller, H.J., Goodchild, M.F.: Data-driven geography. GeoJournal 80(4), 449–461 (2015) 9. Long, J.A., Nelson, T.A.: A review of quantitative methods for movement data. Int. J. Geogr. Inf. Sci. 27(2), 292–318 (2013) 10. Demšar, U., Buchin, K., Cagnacci, F., Safi, K., Speckmann, B., Van de Weghe, N., Weiskopf, D., Weibel, R.: Analysis and visualisation of movement: an interdisciplinary review. Mov. Ecol. 3(1), 1–24 (2015) 11. Laube, P.: Computational Movement Analysis, S. 1–87. Springer, Cham (2014) 12. Gudmundsson, J., van Kreveld, M.J., Speckmann, B.: Efficient detection of patterns in 2d trajectories of moving points. GeoInformatica 11, 195–215 (2007) 13. Demšar, U., Buchin, K., van Loon, E.E., Shamoun-Baranes, J.: Stacked space-time densities: a geovisualisation approach to explore dynamics of space use over time. GeoInformatica 19(1), 85–115 (2015) 14. Hägerstrand, T.: What about people in regional science. Pap. Reg. Sci. Assoc. 24, 7–21 (1970) 15. Miller, H.J.: Modelling accessibility using space-time prism concepts within geographical information systems. Int. J. Geogr. Inf. Syst. 5, 287–301 (1991) 16. Richter, K.F., Schmid, F., Laube, P.: Semantic trajectory compression: representing urban movement in a nutshell. J. Spat. Inf. Sci. 2012(4), 3–30 (2012) 17. Quddus, M.A., Ochieng, W.Y., Noland, R.B.: Current map-matching algorithms for transport applications: State-of-the art and future research directions. Transp. Res. C: Emerg. Technol. 15(5), 312–328 (2007) 18. Du Mouza, C. Rigaux, P.: Mobility patterns. GeoInformatica 9, 297–319 (2005) 19. Järv, O., Ahas, R., Witlox, F.: Understanding monthly variability in human activity spaces: a twelve-month study using mobile phone call detail records. Transp. Res. C: Emerg. Technol. 38, 122–135 (2014) 20. Lorentzos, N.A.: A formal extension of the relational model for the representation and manipulation of generic intervals. Dissertation, Birbeck College, Universität London (1988) 21. Langran, G.: Time in geographic information systems. Dissertation, Universität Washington (1999) 22. Sãltenis, S., Jensen, C.S., Leutenegger, S.T., Lopez, M.A.: Indexing the positions of continuously moving objects. In: Proceedings of the ACM SIGMOD International Conference on Management of Data, S. 331–342 (2000) 23. Hadjieleftheriou, M., Kollios, G., Tsotras, V.J., Gunopulos, D.: Indexing spatio-temporal archives. VLDB J. 15, 143–164 (2006) 24. Buchin, M., Kruckenberg, H., Kölzsch, A.: Segmenting trajectories by movement states. In: Advances in Spatial Data Handling, S. 15–25. Springer, Berlin/Heidelberg (2013) 25. Buchin, M., Driemel, A., van Kreveld, M., Sacristán, V.: Segmenting trajectories: a framework and algorithms using spatiotemporal criteria. J. Spat. Inf. Sci. 2011(3), 33–63 (2011) 26. Anagnostopoulos, A., Vlachos, M., Hadjieleftheriou, M., Keogh, E., Yu, P.S.: Global distance-based segmentation of trajectories. In: Proceedings of the 12th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, S. 34–43 (2006) 27. Rasetic, S., Sander, J., Elding, J., Nascimento, M.A.: A trajectory splitting model for efficient spatio-temporal indexing. In: Proceedings of the 31st International Conference on Very Large Data Bases, S. 934–945 (2005) 28. Yoon, H., Shahabi, C.: Robust time-referenced segmentation of moving object trajectories. In: Proceedings of the IEEE international Conference on Data Mining, S. 1121–1126 (2008) 29. Douglas, D.H., Peucker, T.K.: Algorithms for the reduction of the number of points required to represent a digitized line or its caricature. Can. Cartogr. 10, 112–122 (1973) 30. Cao, H., Wolfson, O., Trajcevski, G.: Spatio-temporal data reduction with deterministic error bounds. VLDB J. 15, 211–228 (2006) 31. Gudmundsson, J., Katajainen, J., Merrick, D., Ong, C., Wolle, T.: Compressing spatiotemporal trajectories. Comput. Geom. Theory Appl. 42, 825–841 (2009)

180

P. Laube et al.

32. N. Meratnia, de By, R.A.: Spatiotemporal compression techniques for moving point objects. In: Proceedings of the 9th International Conference on Extending Database Technology, S. 765–782 (2004) 33. Toohey, K., Duckham, M.:. Trajectory similarity measures. SIGSPATIAL Spec. 7(1), 43–50 (2015) 34. Agrawal, R. Faloutsos, C., Swami, A.N.: Efficient similarity search in sequence databases. In: Proceedings of the 4th International Conference on on Foundations of Data Organization and Algorithms, S. 69–84 (1993) 35. Chu, K., Wong, M.: Fast time-series searching with scaling and shifting. In: Proceedings of the 18th ACM Symposium on Principles of Database Systems, S. 237–248 (1999) 36. Rafiei, D., Mendelzon, A.O.: Querying time series data based on similarity. IEEE Trans. Knowl. Data Eng. 12, 675–693 (2000) 37. Yi, B.-K., Faloutsos, C.: Fast time sequence indexing for arbitrary lp norms. In: Proceedings of the 26th International Conference on Very Large Data Bases, S. 385–394 (2000) 38. Chen, L., Özsu, M.T., Oria, V.: Robust and fast similarity search for moving object trajectories. In: Proceedings of the 2005 ACM SIGMOD International Conference on Management of Data, S. 491–502. ACM, New York (2005) 39. Dodge, S., Laube, P., Weibel, R.: Movement similarity assessment using symbolic representation of trajectories. Int. J. Geogr. Inf. Sci. 26(9), 1563–1588 (2012) 40. Berndt, D.J., Clifford, J.: Using dynamic time warping to find patterns in time series. In: Proceedings of the Knowledge Discovery in Databases Workshop, S. 359–370 (1994) 41. Keogh, E., Ratanamahatana, C.A.: Exact indexing of dynamic time warping. Knowl. Inf. Syst. 7, 358–386 (2005) 42. Keogh, E.J., Pazzani, M.J.: Scaling up dynamic time warping for datamining applications. In: Proceedings of the 6th ACM International Conference on Knowledge Discovery and Data Mining, S. 285–289 (2000) 43. Sakurai, Y., Yoshikawa, M., Faloutsos, C.: Ftw: fast similarity search under the time warping distance. In: Proceedings of the 24th ACM Symposium on Principles of Database Systems, S. 326–337 (2005) 44. Yuan, Y.: Image-Based Gesture Recognition with Support Vector Machines. ProQuest (2008) 45. Agrawal, R., Lin, K.-I., Sawhney, H.S., Shim, K.: Fast similarity search in the presence of noise, scaling, and translation in time-series databases. In: Proceedings of the 21th International Conference on Very Large Data Bases, S. 490–501 (1995) 46. Das, G., Gunopulos, D., Mannila, H.: Finding similar time series. In: Proceedings of the 1st European Symposium on Principles of Data Mining and Knowledge Discovery, S. 88–100 (1997) 47. Vlachos, M., Gunopoulos, D., Kollios, G.: Discovering similar multidimensional trajectories. In: Proceedings of the 18th International Conference on Data Engineering, S. 673–682 (2002) 48. Buchin, K., Buchin, M., van Kreveld, M., Luo, J.: Finding long and similar parts of trajectories. In: Proceedings of the 17th ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems, S. 296–305 (2009) 49. Sinha, G., Mark, D.M.: Measuring similarity between geospatial lifelines in studies of environmental health. J. Geogr. Syst. 7, 115–136 (2005) 50. Trajcevski, G., Ding, H., Scheuermann, P., Tamassia, R., Vaccaro, D.: Dynamics-aware similarity of moving objects trajectories. In: Proceedings of the 15th Annual ACM International Symposium on Advances in Geographic Information Systems, S. 11:1–11:8 (2007) 51. Nanni, M., Pedreschi, D.: Time-focused clustering of trajectories of moving objects. J. Intell. Inf. Syst. 27, 267–289 (2006) 52. van Kreveld, M., Luo, J.: The definition and computation of trajectory and subtrajectory similarity. In: Proceedings of the 15th Annual ACM International Symposium on Advances in Geographic Information Systems, S. 44:1–44:4 (2007) 53. Fréchet, M.: Sur quelques points du calcul fonctionnel. Rend. Circ. Math. Palermo 22, 1–74 (1906)

7 Computer-gestützte Bewegungsanalyse

181

54. Alt, H., Godau, M.: Computing the fréchet distance between two polygonal curves. Int. J. Comput. Geom. Appl. 5, 75–91 (1995) 55. Buchin, K., Buchin, M., Gudmundsson, J.: Constrained free space diagrams: a tool for trajectory analysis. Int. J. Geogr. Inf. Sci. 24, 1101–1125 (2010) 56. Maheshwari, A., Sack, J.-R., Shahbaz, K., Zarrabi-Zadeh, H.: Fréchet distance with speed limits. Comput. Geom. Theory Appl. 44, 110–120 (2011) 57. Buchin, K., Buchin, M., Van Kreveld, M., Luo, J. (2011). Finding long and similar parts of trajectories. Comput. Geom. 44(9), 465–476 58. Buchin, K., Buchin, M., Gudmundsson, J., Löffler, M., Luo, J.: Detecting commuting patterns by clustering subtrajectories. Int. J. Comput. Geom. Appl. 21, 253–282 (2011) 59. Zhang, Z., Huang, K., Tan, T.: Comparison of similarity measures for trajectory clustering in outdoor surveillance scenes. In: Proceedings of the 18th International Conference on Pattern Recognition, S. 1135–1138 (2006) 60. Djordjevic, B., Gudmundsson, J., Pham, A., Wolle, T.: Detecting regular visit patterns. In: Proceedings of the 16th Annual European Symposium on Algorithms, S. 344–355 (2008) 61. Mamoulis, N., Cao, H., Kollios, G., Hadjieleftheriou, M., Tao, Y., Cheung, D.: Mining, indexing, and querying historical spatiotemporal data. In: Proceedings of the 10th ACM International Conference on Knowledge Discovery and Data Mining, S. 236–245 (2004) 62. Verhein, F., Chawla, S.: Mining spatio-temporal association rules, sources, sinks, stationary regions and thoroughfares in object mobility databases. In: Proceedings of the 11th International Conference on Database Systems for Advanced Applications, Lecture Notes in Computer Science Bd. 3882, S. 187–201. Springer, Berlin (2006) 63. Laube, P., van Kreveld, M., Imfeld, S.: Finding REMO – detecting relative motion patterns in geospatial lifelines. In: Fisher, P.F. (Hrsg.) Developments in Spatial Data Handling, Proceedings of the 11th International Symposium on Spatial Data Handling, S. 201–214. Springer, Berlin (2004) 64. Benkert, M., Gudmundsson, J., Hübner, F., Wolle, T.: Reporting flock patterns. Comput. Geom. Theory Appl. 41, 111–125 (2008) 65. Gudmundsson, J., van Kreveld, M.: Computing longest duration flocks in trajectory data. In: Proceedings of the 14th Annual ACM Symposium on Advances in Geographic Information Systems, S. 35–42 (2006) 66. Kalnis, P., Mamoulis, N., Bakiras, S.: On discovering moving clusters in spatio-temporal data. In: Medeiros, C.B., Egenhofer, M.J., Bertino, E. (Hrsg.) Proceedings of the 9th International Symposium on Advances Spatial and Temporal Databases. Lecture Notes in Computer Science Bd. 3633, S. 364–381. Springer, Berlin (2005) 67. Andersson, M., Gudmundsson, J., Laube, P., Wolle, T.: Reporting leadership patterns among trajectories. In: Proceedings of the 22nd ACM Symposium on Applied Computing. ACM (2007) 68. Benkert, M., Djordjevic, B., Gudmundsson, J., Wolle, T.: Finding popular places. Int. J. Comput. Geom. Appl. 20, 19–42 (2010) 69. Jeung, H., Shen, H.T., Zhou, X.: Convoy queries in spatio-temporal databases. In: Proceedings of the 24th International Conference on Data Engineering, S. 1457–1459 (2008) 70. Jeung, H., Yiu, M.L., Zhou, X., Jensen, C.S., Shen, H.T.: Discovery of convoys in trajectory databases. Proc. VLDB Endow. 1, 1068–1080 (2008) 71. Brillinger, D.R., Preisler, H.K., Ager, A.A., Kie, J.G.: An exploratory data analysis (EDA) of the paths of moving animals. J. Stat. Plan. Inference 122, 43–63 (2004) 72. Dykes, J.A., Mountain, D.M.: Seeking structure in records of spatio-temporal behavior: visualization issues, efforts and application. Comput. Stat. Data Anal. 43, 581–603 (2003) 73. Andrienko, N.V., Andrienko, G.L.: Interactive maps for visual data exploration. Int. J. Geogr. Inf. Sci. 13, 355–374 (2003) 74. Andrienko, G. , Andrienko, N., Demsar, U., Dransch, D., Dykes, J., Fabrikant, S.I., Jern, M., Kraak, M.J., Schumann, H., Tominski, C.: Space, time and visual analytics. Int. J. Geogr. Inf. Sci. 24, 1577–1600 (2010)

182

P. Laube et al.

75. Andrienko, G., Andrienko, N., Bak, P., Keim, D., Wrobel, S.: Visual Analytics of Movement. Springer Science & Business Media, Heidelberg (2013) 76. Andrienko, N., Andrienko, G.: Designing visual analytics methods for massive collections of movement data. Cartographica 42, 117–138 (2007) 77. Thomas, J.J., Cook, K.A.: A visual analytics agenda. IEEE Comput. Graph. Appl. 26, 10–13 (2006) 78. Rinzivillo, S., Pedreschi, D., Nanni, M., Giannotti, F., Andrienko, N., Andrienko, G.: Visually driven analysis of movement data by progressive clustering. Inf. Vis. 7, 225–239 (2008) 79. Kintisch, E.: Inching toward movement ecology. Science 313, 779–782 (2006) 80. Nathan, R., Getz, W.M., Revilla, E., Holyoak, M., Kadmon, R., Saltz, D., Smouse, P.E.: A movement ecology paradigm for unifying organismal movement research. Proc. Nat. Acad. Sci. 105, 19052–19059 (2008) 81. Nathan, R., Spiegel, O., Fortmann-Roe, S., Harel, R., Wikelski, M., Getz, W.M.: Using triaxial acceleration data to identify behavioral modes of free-ranging animals: general concepts and tools illustrated for griffon vultures. J. Exp. Biol. 215(6), 986–996 (2012) 82. Dodge, S., Bohrer, G., Weinzierl, R., Davidson, S.C., Kays, R., Douglas, D., . . . Wikelski, M.: The environmental-data automated track annotation (Env-DATA) system: linking animal tracks with environmental data. Mov. Ecol. 1(1), 3 (2013) 83. Horne, J.S., Garton, E.O., Krone, S.M., Lewis, J.S.: Analyzing animal movements using Brownian bridges. Ecology 88(9), 2354–2363 (2007) 84. Güting, R.H., Schneider, M.: Moving Objects Databases. Elsevier Morgan Kaufmann, San Francisco, CA (2005) 85. Geers, G., Sester, M., Winter, S., Wolfson, O.E.: 10121 report – towards a computational transportation science. In: Geers, G., Sester, M., Winter, S., Wolfson, O.E. (Hrsg.) Computational Transportation Science. Leibniz-Zentrum für Informatik, Dagstuhl (2010) 86. Popoola, O.P., Wang, K. (2012). Video-based abnormal human behavior recognition—a review. IEEE Trans Syst. Man Cybern. C: Appl. Rev. 42(6), 865–878 87. Candamo, J., Shreve, M., Goldgof, D.B., Sapper, D.B., Kasturi, R.: Understanding transit scenes: a survey on human behavior-recognition algorithms. IEEE Trans. Intell. Transp. Syst., 11(1), 206–224 (2010) 88. Blanke, U., Troster, G., Franke, T., Lukowicz, P.: Capturing crowd dynamics at large scale events using participatory gps-localization. In: 2014 IEEE Ninth International Conference on Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP), S. 1–7. IEEE, Piscataway (2014) 89. Larson, J.S., Bradlow, E.T., Fader, P.S.: An exploratory look at supermarket shopping paths. Int. J. Res. Mark. 22, 395–414 (2005) 90. Gudmundsson, J., Wolle, T.: Towards automated football analysis: algorithms and data structures. In: Proceedings of the 10th Australasian Conference on Mathematics and Computers in Sport (2010) 91. Kang, C.-H., Hwang, J.-R., Li, K.-J.: Trajectory analysis for soccer players. In: Proceedings of the 6th IEEE International Conference on Data Mining Workshop, S. 377–381 (2006) 92. Gudmundsson, J., Wolle, T.: Football analysis using spatio-temporal tools. Comput. Environ. Urban Syst. 47, 16–27 (2014) 93. Fujimura, A., Sugihara, K.: Geometric analysis and quantitative evaluation of sport teamwork. Syst. Comput. Jpn. 36, 49–58 (2005) 94. Horton, M., Gudmundsson, J., Chawla, S., Estephan, J.: Automated classification of passing in football. In: Advances in Knowledge Discovery and Data Mining, S. 319–330. Springer International Publishing, Berlin/Heidelberg (2015) 95. Memmert, D., Perl, J.: Game creativity analysis by means of neural networks. J. Sport Sci. 27, 139–149 (2009) 96. Grunz, A., Memmert, D., Perl, J.: Analysis and simulation of actions in games by means of special self-organizing maps. Int. J. Comput. Sci. Sport 8, 22–36 (2009)

7 Computer-gestützte Bewegungsanalyse

183

97. Laube, P., Imfeld, S., Weibel, R.: Discovering relative motion patterns in groups of moving point objects. Int. J. Geogr. Inf. Sci. 19, 639–668 (2005) 98. Nittel, S., Stefanidis, A., Cruz, I., Egenhofer, M.J., Goldin, D., Howard, A., Labrinidis, A., Madden, S., Voisard, A. Worboys, M.: Report from the first workshop on geo sensor networks. ACM SIGMOD Rec. 33, 141–144 (2004) 99. Lynch, N.: Distributed Algorithms. Morgan Kaufmann, San Mateo (1996) 100. Duckham, M.: Decentralized Spatial Computing: Foundations of Geosensor Networks. Springer Science & Business Media, Berlin/New York (2012) 101. Yu, X.: Approaches and principles of fall detection for elderly and patient. In: 2008 10th International Conference on e-Health Networking, Applications and Services (HealthCom 2008), S. 42–47. IEEE, Piscataway (2008) 102. Both, A., Duckham, M., Laube, P., Wark, T., Yeoman, J.: Decentralized monitoring of moving objects in a transportation network augmented with checkpoints. Comput. J. 56(12), 1432–1449 (2013) 103. Laube, P., Duckham, M., Wolle, T.: Decentralized movement pattern detection amongst mobile geosensor nodes. In: Cova, T.J., Beard, K., Goodchild, M.F., Frank, A.U. (Hrsg.) GIScience 2008. LNCS, Bd. 5266, S. 199–216. Springer, Heidelberg (2008) 104. Dobson, J.E., Fisher, P.F.: Geoslavery. IEEE Technol. Soc. Mag. 22, 47–52 (2003) 105. Bettini, C., Wang, X., Jajodia, S.: Protecting privacy against location-based personal identification. In: Jonker, W., Petkovic, M. (Hrsg.) Secure Data Management. Lecture Notes in Computer Science, Bd. 3674, S. 185–199. Springer, Heidelberg (2005) 106. Duckham, M., Kulik, L.: Location privacy and location-aware computing. In: Drummond, J., Billen, R., Forrest, D., Joao, E. (Hrsg.) Dynamic and Mobile GIS. CRC Press, Boca Raton (2006) 107. U.S. Department of Justice, Office of Information and Privacy: overview of the privacy act of 1974 (2004) 108. Kaasinen, E.: User needs for location-aware mobile services. Pers. Ubiquitous Comput. 7, 70–79 (2003) 109. Kido, H., Yanagisawa, Y., Satoh, T.: An anonymous communication technique using dummies for location-based services. In: International Conference on Pervasive Services (ICPS ’05), S. 88–97 (2005) 110. Duckham, M., Kulik, L.: Simulation of obfuscation and negotiation for location privacy. In: Spatial Information Theory (COSIT 2005). Lecture Notes in Computer Science, Bd. 3693, S. 31–48. Springer, Heidelberg (2005) 111. Duckham, M., Kulik, L.: A formal model of obfuscation and negotiation for location privacy. In: Gellersen, H.W., Want, R., Schmidt, A. (Hrsg.) Pervasive Computing, Proceedings. Lecture Notes in Computer Science, Bd. 3468, S. 152–170. Springer, Berlin (2005) 112. Giannotti, F. Pedreschi, D.: Mobility, data mining and privacy: a vision of convergence. In: Giannotti, F., Pedreschi, D. (Hrsg.) Mobility, Data Mining and Privacy, S. 1–11. Springer, Berlin (2008) 113. de Montjoye, Y.A., Hidalgo, C.A., Verleysen, M., Blondel, V.D.: Unique in the crowd: the privacy bounds of human mobility. Sci. Rep. 3, 1–5 (2013) 114. Uteck, A.: Ubiquitous computing and spatial privacy, anonymity, privacy and identity in a networked society. In: Kerr, I., Steeves, V., Lucock, C. (Hrsg.) Lessons from the Identity Trail, S. 83–102. Oxford University Press, Oxford (2009) 115. Nouwt, S.: Reasonable expectations of geo-privacy? SCRIPTed 5, 375–403 (2008) 116. Peuquet, D.J.: It’s about time: a conceptual framework for the representation of temporal dynamics in geographic information systems. Ann. Assoc. Am. Geogr. 83, 441–461 (1994) 117. Chrisman, N.R.: Beyond the snapshot: changing the approach to change, error, and process. In: Egenhofer, M.J., Golledge, R.G. (Hrsg.) Spatial and Temporal Reasoning in Geographic Information Systems, S. 85–93. Oxford University Press, Oxford (1998)

184

P. Laube et al.

118. Laube, P.: The low hanging fruit is gone: achievements and challenges of computational movement analysis. SIGSPATIAL Spec. 7(1), 3–10 (2015) 119. Dodge, S., Weibel, R., Lautenschutz, A.-K.: Towards a taxonomy of movement patterns. Inf. Vis. 7, 240–252 (2008) 120. Wood, Z., Galton, A.: Classifying collective motion. In: Gottfried, B., Aghajan, H. (Hrsg.) Behaviour Monitoring and Interpretation – BMI – Smart Environments. Ambient Intelligence and Smart Environments, Bd. 3, S. 129–155. IOS Press, Amsterdam (2009)

8

Räumliche Analyse durch kombinatorische Optimierung Jan-Henrik Haunert und Alexander Wolff

Inhalt 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Explizite Enumeration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Laufzeitangaben und Wachstum von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Komplexitätstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Lösungsansätze für effizient lösbare Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Gierige Algorithmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Dynamische Programmierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Teile und Herrsche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Lösungsansätze für NP -schwere Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Mathematische Programmierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Ein einfaches ganzzahliges lineares Programm zur Berechnung maximaler unabhängiger Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Lösung ganzzahliger linearer Programme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Eine einfache Heuristik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Lokale Suche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Approximationsalgorithmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Fazit und Perspektive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

186 187 188 189 190 191 193 196 197 200 202 206 208 210 211 215 216 218 221 222

J.-H. Haunert () Institut für Geoinformatik und Fernerkundung (IGF), Universität Osnabrück, Osnabrück, Deutschland E-Mail: [email protected] A. Wolff Lehrstuhl für Informatik I, Universität Würzburg, Würzburg, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_69

185

186

J.-H. Haunert und A. Wolff

Zusammenfassung

In diesem Beitrag geht es uns darum, an einigen wenigen Beispielen aus der räumlichen Analyse grundlegende Entwurfstechniken für Algorithmen und Werkzeuge der kombinatorischen Optimierung zu illustrieren. Außerdem wollen wir ein Minimum an theoretischem Unterbau vermitteln. Damit hoffen wir, dass es dem Leser, der Leserin gelingt, räumliche Probleme mit Methoden der Informatik bewusst und damit erfolgreich zu lösen. Wir halten es für besonders wichtig, dass man neue Probleme sorgfältig mathematisch modelliert und mittels exakter Algorithmen das eigene Modell wenigstens auf kleinen Instanzen überprüft, bevor man sich schnellen Heuristiken zuwendet, um große Instanzen zu lösen. Schlüsselwörter

Kombinatorische Optimierung · Räumliche Analyse · Effiziente Algorithmen · Mathematische Programmierung · Dynamische Programmierung · Teile und Herrsche · Approximationsalgorithmen · Greedy-Algorithmen · Heuristiken

1

Einleitung

Wer möchte nicht gern in kurzer Zeit möglichst viel Geld verdienen? Natürlich spielen in der Wirtschaft auch andere Kriterien wie Umwelt- und Sozialverträglichkeit eine Rolle, doch Geld und Zeit sind gute Argumente, wenn es um Entscheidungen geht. Um Gewinne, zeitliche Abläufe oder andere Kriterien zu optimieren, setzen Unternehmer in den verschiedensten Bereichen Algorithmen ein, zum Beispiel für eine erfolgreiche Partnervermittlung oder den Entwurf materialsparender Ingenieurbauten. Dabei spielen oft räumliche Kriterien eine Rolle, etwa wenn ein Logistikunternehmer möglichst kurze Rundwege berechnet oder eine Restaurantkette einen optimalen Standort für eine neue Filiale sucht. Für viele dieser Aufgaben bieten geographische Informationssysteme (GIS) geeignete Werkzeuge. Geodäten und Geoinformatiker müssen jedoch in der Lage sein, neue Lösungen für bisher unbekannte Probleme zu entwickeln. Dies ist in der heutigen Zeit umso wichtiger, als sich Sensoren und andere technische Geräte sowie die damit verfügbaren Geodaten rapide weiterentwickeln. So hätte vor 20 Jahren wohl kaum jemand gedacht, dass heute ein Großteil der Bevölkerung über mobile Telefone verfügt, mit denen sich in kürzester Zeit optimale Routen berechnen lassen. Viele der sehr unterschiedlichen Fragen in der Geoinformatik lassen sich mit vergleichsweise ähnlichen Mitteln lösen. Dieses Kapitel bietet einen Überblick über die wichtigsten Ansätze zur kombinatorischen Optimierung und diskutiert sie im Kontext ausgewählter Probleme der räumlichen Analyse. Die Auswahl der Probleme soll keineswegs die Vielfalt der Aufgaben in der Praxis widerspiegeln, sondern erfolgt aufgrund ihres beispielhaften Charakters. Grundsätzlich lassen sich die Probleme, die wir in diesem Kapitel besprechen, in zwei verschiedene Klassen einteilen: Während wir für Probleme der ersten

8 Räumliche Analyse durch kombinatorische Optimierung

187

Klasse effiziente Algorithmen angeben können, würde die Existenz eines effizienten Algorithmus für ein Problem der zweiten Klasse (das ist die Menge der NPschweren Probleme) eine wissenschaftliche Sensation darstellen – was nicht heißen soll, dass es keine Möglichkeit gibt, ein NP-schweres Problem zu zähmen. In der Anwendung sind Probleme beider Klassen gleichermaßen von Bedeutung. Im Folgenden führen wir wichtige Grundlagen der kombinatorischen Optimierung ein und klären dabei genauer, was es mit der Effizienz von Algorithmen und mit NP-schweren Problemen auf sich hat (Abschn. 2). Danach stellen wir Ansätze für effizient lösbare Probleme (Abschn. 3) und NP-schwere Probleme (Abschn. 4) vor. Zu guter Letzt schließen wir mit einem Fazit (Abschn. 5).

2

Grundlagen

Nehmen wir an, dass ein Unternehmen eine neue Fabrik plant. Bei der Wahl des Fabrikstandorts soll berücksichtigt werden, dass die Stromversorgung sichergestellt ist. Daher bedient sich die Unternehmensleitung eines Datensatzes, in dem jedes Elektrizitätswerk als Punkt repräsentiert ist. Nun möchte sich das Management nicht zu sehr von einem einzelnen Elektrizitätswerk abhängig machen, denn dieses könnte geschlossen werden oder sein Betreiber könnte den Strompreis erhöhen. Der Standort soll daher so gewählt werden, dass der Abstand zum zweitnächsten Elektrizitätswerk möglichst gering ist. Um diesem Ziel nachzukommen, werden die beiden Elektrizitätswerke gesucht, die einander am nächsten sind. Ein optimaler Standort für die Fabrik liegt offensichtlich genau auf der Mitte zwischen diesen beiden Elektrizitätswerken; siehe Abb. 1. Formal lässt sich das Problem wie folgt definieren. Problem 1 (Fabrikplanung). Gegeben sei eine Menge P ⊆ R2 von n Punkten in der Ebene. Finde zwei verschiedene Punkte  p = (xp , yp ) und q = (xq , yq) in P , deren euklidischer Abstand p − q =

(xp − xq )2 + (yp − yq )2 minimal ist.

In diesem Abschnitt diskutieren wir theoretische Grundlagen, die wir zur Lösung von Optimierungsproblemen benötigen. Wir veranschaulichen diese Grundlagen am Beispiel des Problems der Fabrikplanung. Nach der Klärung einiger zentraler Be-

Abb. 1 Eine Menge von Elektrizitätswerken (schwarz) und ein Punkt (weiß) mit minimalem Abstand zum zweitnächsten Elektrizitätswerk

188

J.-H. Haunert und A. Wolff

griffe (Abschn. 2.1) wenden wir uns Graphen zu, der mathematischen Modellierung von Netzwerken (Abschn. 2.2). Der Grund dafür ist, dass Graphen bei der Lösung vieler Optimierungsprobleme eine Rolle spielen, auch bei solchen, bei denen es nicht um Netzwerke geht. Viele Probleme lassen sich als Graphenprobleme modellieren, und die Informatik stellt für viele Graphenprobleme effiziente Algorithmen zur Verfügung. Im Vorgriff auf Abschn. 3 gehen wir dann kurz auf einen ersten, ganz einfachen Lösungsansatz für effizient lösbare Probleme ein: die explizite Enumeration (Abschn. 2.3). Dies liefert uns einen Algorithmus, dessen Laufzeit wir analysieren. Dabei machen wir uns ganz allgemein Gedanken über Laufzeitangaben und das Wachstum von Funktionen (Abschn. 2.4). Wir beschließen diesen Grundlagenabschnitt mit einigen Überlegung zur Komplexität von Problemen (Abschn. 2.5).

2.1

Grundbegriffe

Mit der formalen Definition des Problems der Fabrikplanung haben wir bereits eine der wichtigsten Voraussetzungen für die automatische Lösung geschaffen, nämlich die absolute Klarheit über das Problem. Diese Klarheit wird in der Informatik in der Regel durch mathematische Abstraktion hergestellt – so wie wir in unserem Beispiel die Elektrizitätswerke durch Punkte in der euklidischen Ebene modelliert haben. Zur Problemdefinition gehören im Allgemeinen Annahmen über die Eingabedaten und Bedingungen, die an eine Lösung geknüpft werden. Eine Eingabe, welche die Annahmen der Problemdefinition erfüllt, heißt Instanz des Problems. Eine zulässige Lösung erfüllt alle Bedingungen für eine gegebene Instanz. Fragen wir nach einer möglichst guten zulässigen Lösung, so stehen wir vor einem Optimierungsproblem. Dabei wird die Güte einer Lösung durch eine Zielfunktion formalisiert – in unserem Beispiel ist die Zielfunktion die euklidische Distanz zwischen den beiden Punkten der Lösung. Grundsätzlich ist eine optimale Lösung gesucht, also eine zulässige Lösung, die den größtmöglichen oder kleinstmöglichen Zielfunktionswert hat. Entsprechend sprechen wir von einem Maximierungsproblem oder, wie in unserem Beispiel, von einem Minimierungsproblem. Zur Optimierung werden grundsätzlich Algorithmen eingesetzt, wobei der Begriff Algorithmus im Allgemeinen nach einer weniger strengen (i) oder einer strengen Definition (ii) Verwendung findet: (i) Ein Algorithmus ist eine eindeutig definierte Prozedur, die Daten einliest, eine Folge von Rechenschritten ausführt und Daten ausgibt. (ii) Ein Algorithmus ist eine eindeutig definierte Prozedur zur Lösung eines eindeutig definierten Problems. In jedem Fall ist ein Algorithmus unabhängig von seiner Implementierung in einer bestimmten Programmiersprache. Im Folgenden verwenden wir die strenge Definition (ii). Mit dieser Definition (und nur mit ihr) ergibt es Sinn, einen Algorithmus für ein Problem als korrekt zu bezeichnen, wenn er für jede Instanz

8 Räumliche Analyse durch kombinatorische Optimierung

189

eine zulässige Lösung ausgibt. Ein Algorithmus für ein Optimierungsproblem heißt exakt, wenn er für jede Instanz eine optimale Lösung berechnet.

2.2

Graphen

Graphen sind ein mathematisches Konzept zur Beschreibung von paarweisen Relationen zwischen den Elementen einer Menge. Formal ist ein Graph ein Paar (V , E) von zwei Mengen mit E ⊆ {{u, v} | u, v ∈ V , u = v}. Dabei wird V als Knotenmenge und E als Kantenmenge bezeichnet. Die formale Definition von E besagt, dass jede Kante ein Paar von Knoten ist. Graphen werden üblicherweise zeichnerisch dargestellt, wobei in der Regel jeder Knoten durch einen Punkt in der Zeichenebene repräsentiert wird; jede Kante {u, v} ∈ E wird als Linie gezeichnet, welche die Punkte für u und v verbindet. Ein Graph, der gezeichnet werden kann, ohne dass sich zwei seiner Kanten kreuzen, heißt planar. Abb. 2 zeigt zwei Zeichnungen desselben Graphen. Grundsätzlich erlaubt ein Graph unendlich viele verschiedene Zeichnungen. Das Graphzeichnen ist ein umfangreiches Themengebiet der Informatik, das sich damit befasst, Algorithmen anzugeben, die für jeden Graphen (evtl. einer bestimmten Klasse von Graphen) Zeichnungen berechnen, die bezüglich bestimmter Kriterien optimal oder wenigstens zulässig sind. Es findet in der Geoinformatik zur Visualisierung geographischer Netze vielfältige Anwendungen [24]. Für die räumliche Analyse sind geometrische Graphen von besonderer Bedeutung; das sind Graphen, deren Knoten und Kanten geometrische Objekte repräsentieren. Geometrische Graphen können Teil der Eingabe zu einem Problem sein, beispielsweise wenn der geometrisch kürzeste Weg zwischen zwei Punkten in einem Straßennetz (dem gegebenen Graphen) gesucht ist. Zudem kann das Problem darin bestehen, einen geometrischen Graphen bestimmter Eigenschaften zu berechnen, z. B. wenn eine gegebene Menge von Stromerzeugern und -verbrauchern mit möglichst geringem Aufwand über ein Leitungsnetz verbunden werden soll.

3

2

1

4

1

3

2

5

4

5

Abb. 2 Zwei Zeichnungen des Graphen G=(V , E) mit V ={1, 2, 3, 4, 5} und E={{1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {4, 5}}

190

J.-H. Haunert und A. Wolff

Selbst wenn ein Problem nicht direkt nach einem geometrischen Graphen fragt, kann es hilfreich sein, zunächst einen geometrischen Graphen bestimmter Eigenschaften zu berechnen. Der Graph dient nach seiner Berechnung als Datenstruktur, die bestimmte Nachbarschaftsrelationen vorhält und damit die Lösung des eigentlichen Problems ermöglicht. Für die räumliche Analyse werden besonders häufig Delaunay-Triangulierungen und Voronoi-Diagramme eingesetzt, deren Berechnung zu den Aufgaben der algorithmischen Geometrie gehört [8]. Die Graphentheorie bietet zudem eine Vielzahl an Konzepten und Algorithmen [17, 21], die wir für die räumliche Analyse einsetzen können. Dazu gehören Wege, Matchings, Spannbäume und Flüsse sowie Algorithmen zu ihrer Berechnung. Ein Konzept, das wir in diesem Kapitel mehrfach anwenden werden, ist das einer unabhängigen Menge: Für einen Graphen G = (V , E) heißt eine Menge V ⊆ V unabhängig, wenn für jede Kante {u, v} ∈ E entweder u ∈ V oder v ∈ V gilt. Das heißt, V enthält keine zwei Knoten, die durch eine Kante verbunden sind. So ist {1, 5} eine unabhängige Menge des Graphen in Abb. 2, wohingegen {1, 2, 5} keine unabhängige Menge dieses Graphen ist, da er die Kante {1, 2} enthält. Ein bekanntes Problem der Informatik besteht darin, für einen gegebenen Graphen eine möglichst große unabhängige Menge zu berechnen: Problem 2 (maximale unabhängige Menge). Gegeben sei ein Graph G=(V , E). Finde eine unabhängige Menge V ⊆ V von G (d. h. für jede Kante {u, v} ∈ E gilt u ∈ V oder v ∈ V ), die eine maximale Anzahl von Knoten enthält. Offensichtlich ist {1, 5} eine maximale unabhängige Menge des Graphen in Abb. 2, denn dieser Graph hat keine unabhängige Menge mit drei Knoten.

2.3

Explizite Enumeration

Eine sehr einfache, oft als rohe Gewalt (engl. brute force) bezeichnete Herangehensweise zur kombinatorischen Optimierung ist die Aufzählung und Bewertung aller möglichen Lösungen für eine gegebene Instanz. Algorithmus 1 realisiert dieses Prinzip für Problem 1, wobei zur Vereinfachung der Darstellung nur der minimale Abstand zwischen zwei Punkten berechnet und zurückgegeben wird und nicht die beiden Punkte, für die dieses Minimum erreicht wird. Da alle möglichen Lösungen explizit in Betracht gezogen werden, ist Algorithmus 1 trivialerweise korrekt und exakt. Eine genaue Analyse der doppelten for-Schleife ergibt, dass der Algorithmus n(n − 1)/2 Iterationen ausführt. Theoretisch können wir die explizite Enumeration aller Lösungen auch auf Problem 2 anwenden: Wir testen einfach für jede Menge V ⊆ V , ob V eine unabhängige Menge von G ist, und merken uns zu jeder Zeit die größte unabhängige Menge, die wir bisher gefunden haben. Diese Menge geben wir am Ende zurück. Allerdings müssen wir feststellen, dass V extrem viele Teilmengen enthält, die unser Algorithmus explizit testen würde. Genauer gesagt müsste er 2|V | Teilmengen von V testen und entsprechend viele Iterationen ausführen. Bereits für |V | = 300

8 Räumliche Analyse durch kombinatorische Optimierung

191

wäre diese Zahl weit größer als die geschätzte Anzahl aller Atome im Universum (ca. 1080 ). Daher eignet sich der Ansatz hier nur für sehr kleine Eingaben (z. B. |V | ≤ 20).

2.4

Laufzeitangaben und Wachstum von Funktionen

Allgemein interessieren wir uns neben der Korrektheit oder der Exaktheit eines Algorithmus auch für seine Laufzeit. In der Regel werden wir einen Anstieg der Laufzeit beobachten, wenn wir einen Algorithmus auf größere Instanzen anwenden. Es ist durchaus üblich, die Laufzeit eines Algorithmus experimentell zu ermitteln, indem man Instanzen verschiedener Größe mit einer Implementierung des Algorithmus löst. Die Aussagekraft derartiger Laufzeitmessungen ist jedoch begrenzt, da wir mit Abhängigkeiten von der verwendeten Programmiersprache, der Hardware und dem Betriebssystem zu rechnen haben. Daher ist es sinnvoll, elementare Rechenoperationen (z. B. Vergleichsoperationen oder Additionen und Multiplikationen) zu zählen, statt Laufzeiten mit einer Uhr zu messen. Algorithmus 1 führt beispielsweise pro Iteration genau eine Abstandsberechnung aus (vor der if-Anweisung). Die   Anzahl der Iterationen ist n2 = n(n − 1)/2. Wenn wir vereinfachend davon ausgehen, dass eine Abstandsberechnung eine Zeiteinheit benötigt, so ergibt sich eine Laufzeit von n(n − 1)/2 für Algorithmus 1. Bei vielen Algorithmen werden wir auch Laufzeitunterschiede für verschiedene Instanzen gleicher Größe beobachten. Beispielsweise können wir uns eine Variante von Algorithmus 1 vorstellen, die zu Beginn überprüft, ob alle Punkte in P identisch sind, und gegebenenfalls 0 zurückgibt. Für sehr spezielle Instanzen benötigt diese Variante natürlich weniger als n(n − 1)/2 Abstandsberechnungen. Allerdings beschränken wir uns bei der Laufzeitanalyse in der Regel darauf, für jede mögliche Eingabegröße eine Instanz zu betrachten, für die der Algorithmus die meisten Rechenschritte benötigt. Das heißt, wenn wir nichts anderes sagen, analysieren wir den schlechtesten Fall. Als Worst-Case-Laufzeit bezeichnen wir die Funktion f, die für jede mögliche Eingabegröße n die maximal benötigte Anzahl f (n) von

Algorithmus 1: NächstesPaarRoheGewalt(P ) Eingabe: Feld P [1..n] mit Punkten in R2 Ausgabe: Minimaler Abstand d von zwei Punkten in P d=∞ for i = 1 to n − 1 do for j = i + 1 to n do d = P [i] − P [j ] if d < d then d = d

return d

192

J.-H. Haunert und A. Wolff

Rechenschritten angibt. In dieser Hinsicht ist die neue Variante von Algorithmus 1 nicht im geringsten besser als die ursprüngliche Version. Bezeichnen wir die Worst-Case-Laufzeit von Algorithmus 1 mit f1 , das heißt f1 (n) = n(n − 1)/2 = 12 n2 − 12 n, und nehmen wir an, dass es einen zweiten Algorithmus für dasselbe Problem mit Laufzeit f2 (n) = n log2 n gibt. Dann wäre der zweite Algorithmus vorzuziehen, denn f2 wächst viel langsamer als f1 . Für sehr kleine n ist der Unterschied kaum wahrnehmbar; f1 (n) ist zunächst sogar kleiner als f2 (n). Bereits für n = 100 ist der Vorteil von f2 gegenüber f1 jedoch riesig; siehe Abb. 3. In der Regel ist die Worst-Case-Laufzeit f eine sehr komplizierte Funktion, die aus vielen Termen besteht; es fällt schwer, sie genau zu bestimmen. Zur Vereinfachung betrachtet man das Verhalten von f für große Werte (bzw. das asymptotische Verhalten von f ) und schätzt f nach oben ab. Formal geschieht die Abschätzung durch die Groß-O-Notation, das heißt, durch die Angabe einer Funktion g mit f ∈ O(g), wobei die Menge O(g) alle Funktionen enthält, die für große Werte höchstens um einen konstanten Faktor schneller wachsen als g. Formal gilt O(g) = {f : Es gibt positive Konstanten c und n0 , so dass f (n) ≤ cg(n) für alle n ≥ n0 } .

(1)

Betrachten wir beispielsweise die Laufzeit f (n) = n(n − 1)/2 = 12 n2 − 12 n von Algorithmus 1. Offensichtlich ist f (n) ≤ n2 , wenn n ≥ 1. Also ist f ∈ O(n2 ), denn es gilt f (n) ≤ cn2 für c = 1 und für alle n ≥ n0 = 1. Sicherlich hätten wir auch andere Werte für n0 und c finden können, so dass f (n) ≤ cn2 für alle n ≥ n0 erfüllt ist. Um f ∈ O(n2 ) zu beweisen, reicht es nach Gl. (1) aber aus, zu zeigen, dass f (n) ≤ cn2 für alle n ≥ n0 bei einer Wahl von n0 und c erfüllt ist. Wir bemerken weiterhin, dass nicht nur f ∈ O(n2 ), sondern z. B. auch f ∈ O(n3 ) gilt, denn es gilt auch f (n) ≤ cn3 für c = 1 und für alle 8

5000

6

4000

f2

2000

f1

2 0

f1

3000

4

1000 1

2

3

4

n Abb. 3 Funktionsgraphen für f1 (n) = [1, 100]

0

f2 1

20

40

60

80

100

n 1 2 2n

− 12 n und f2 (n) = n log2 n für n ∈ [1, 4] und n ∈

8 Räumliche Analyse durch kombinatorische Optimierung

193

n ≥ n0 = 1. Die Groß-O-Notation drückt formal also nur eine Abschätzung nach oben aus, wenngleich wir in der Regel bemüht sind, eine möglichst genaue Abschätzung in Form einer möglichst langsam wachsenden oberen Schranke zu finden. Eine Abschätzung einer Funktion f nach unten ist formal durch Angabe einer Funktion g mit f ∈ Ω(g) möglich. Dabei ist Ω(g) = {f : Es gibt positive Konstanten c und n0 , so dass cg(n) ≤ f (n) für alle n ≥ n0 } .

(2)

Beispielsweise ist f (n) = 12 n2 − 12 n ≥ 14 n2 für n ≥ 2. Also ist f ∈ Ω(n2 ), denn cn2 ≤ f (n) für alle n ≥ n0 = 2 und c = 14 . Als letztes definieren wir Θ(g) für eine Funktion g als Schnittmenge von O(g) und Ω(g) und ermöglichen somit, das asymptotische Verhalten einer Funktion genau abzuschätzen. Das heißt, f ∈ Θ(g) genau dann, wenn f ∈ O(g) und f ∈ Ω(g). Für f (n) = 12 n2 − 12 n gilt f ∈ Θ(n2 ), denn f ∈ O(n2 ) und f ∈ Ω(n2 ). Allgemein dienen die Definitionen von O, Ω, und Θ der Beschreibung beliebiger Funktionen. Zum Beispiel können wir sagen, dass ein Algorithmus O(n log n) zusätzlichen Speicher benötigt, die Best-Case-Laufzeit eines Algorithmus in O(n) ist oder die Worst-Case-Laufzeit eines Algorithmus sowohl in Ω(n log n) als auch in O(n2 ) ist. Auch Aussagen, die sich nicht auf einen Algorithmus beziehen, sind möglich. Beispielsweise hat jeder Graph mit n Knoten O(n2 ) Kanten, denn jeder Knoten kann höchsten mit n − 1 anderen Knoten benachbart sein.

2.5

Komplexitätstheorie

Ein Algorithmus, dessen Worst-Case-Laufzeit f polynomiell beschränkt ist (das heißt, f ∈ O(nc ) für die Eingabegröße n und eine Konstante c ∈ N), heißt effizient. In der Praxis würde man so manchen effizienten Algorithmus als langsam bezeichnen, zum Beispiel, wenn f ∈ Θ(n100 ). Die Definition von „effizient“ ergibt dennoch Sinn, da für viele Optimierungsprobleme nur (oder noch nicht einmal) exakte Algorithmen bekannt sind, deren Laufzeit exponentiell mit n wächst. Oft lassen sich nur extrem kleine Instanzen solcher Probleme in angemessener Zeit exakt lösen. In der Theoretischen Informatik klassifiziert man Probleme hinsichtlich ihrer Komplexität. Fällt ein Problem in eine Klasse hoher Komplexität, so gilt die Suche nach einem effizienten exakten Algorithmus als hoffnungslos. Man kann sich somit auf andere Lösungsstrategien konzentrieren – zum Beispiel auf die Suche nach einem effizienten, aber nicht exakten Algorithmus – und sich somit unnötige Entwicklungsarbeit sparen. Viele Komplexitätsklassen der Theoretischen Informatik sind nur für Entscheidungsprobleme definiert. Das sind Probleme, in denen eine Frage mit „ja“ oder „nein“ zu beantworten ist. Wir können die Definitionen nicht direkt auf

194

J.-H. Haunert und A. Wolff

Optimierungsprobleme anwenden, die nach einer optimalen Lösung fragen. Grundsätzlich lässt sich jedoch für jedes Optimierungsproblem π ein zugehöriges Entscheidungsproblem π definieren. Wenn π ein Minimierungsproblem (bzw. Maximierungsproblem) ist, so fragt π danach, ob es für eine gegebene Instanz von π eine Lösung gibt, deren Zielfunktionswert kleiner oder gleich (bzw. größer oder gleich) einer gegebenen Zahl ist. Natürlich ist es nicht schwerer, das Entscheidungsproblem zu lösen als das ursprüngliche Optimierungsproblem. Daher gibt die Analyse der Komplexität von π durchaus Aufschluss über die Komplexität von π . Für unsere weitere Diskussion sind die Komplexitätsklassen P und NP von besonderer Bedeutung. Mit P bezeichnen wir die Menge aller Entscheidungsprobleme, für die effiziente Algorithmen existieren. Natürlich ist das zu Problem 1 zugehörige Entscheidungsproblem in P, denn mit Algorithmus 1 können wir es effizient lösen. Für Problem 2 stellt die explizite Enumeration keinen effizienten Algorithmus dar, doch damit ist nicht ausgeschlossen, dass es nicht doch einen (intelligenteren) effizienten Algorithmus gibt. Wir können also nicht sagen, ob das Entscheidungsproblem zu Problem 2 in P ist. Tatsächlich ist diese Frage bis heute ungeklärt. Wir verzichten auf eine genaue Definition der Klasse NP und verweisen für die Details auf das Standardwerk [10]. Stattdessen nennen wir zwei Bedingungen, die zusammen hinreichend sind, damit das zu einem Optimierungsproblem π zugehörige Entscheidungsproblem π in NP ist: (a) Eine optimale Lösung s zu einer Instanz I von π braucht nicht wesentlich mehr Speicher als I . (Genauer gesagt, die Größe von s ist polynomiell in der Größe von I .) (b) Es existiert ein effizienter Algorithmus, der für eine gegebene Instanz I von π und eine beliebige Eingabe e überprüft, ob e eine zulässige Lösung für I ist und, falls dem so ist, den Zielfunktionswert von e berechnet. Offensichtlich sind diese beiden Bedingungen in der Praxis für die meisten Optimierungsprobleme erfüllt. Beispielsweise ist das zu Problem 1 zugehörige Entscheidungsproblem in NP, denn (a) eine optimale Lösung zum Optimierungsproblem lässt sich durch zwei Punkte repräsentieren und (b) für zwei gegebene Punkte p, q ∈ R2 können wir effizient entscheiden, ob p = q, ob p ∈ P und q ∈ P , und wir können den euklidischen Abstand p − q effizient berechnen. (Aus Sicht der Genauigkeit wäre es übrigens besser, auf die Anwendung der Wurzelfunktion zu verzichten und stattdessen quadrierte Abstände zu vergleichen.) Ebenso ist Problem 2 in NP, denn (a) eine optimale Lösung zum Optimierungsproblem enthält höchstens |V | Knoten und (b) für eine Knotenmenge V können wir effizient entscheiden, ob sie die Eigenschaften einer unabhängigen Menge hat (indem wir testen, ob V ⊆ V und ob für jede Kante {u, v} ∈ E gilt, dass u ∈ V oder v ∈ V ), und wir können die Anzahl der Elemente in V effizient berechnen (durch simples Zählen).

8 Räumliche Analyse durch kombinatorische Optimierung

195

Tatsächlich ist die Definition von NP so allgemein, dass P ⊆ NP gilt. Das heißt, jedes Problem in P liegt auch in NP. Dies entspricht der Intuition, denn es ist sicherlich nicht schwieriger, die Zulässigkeit einer gegebenen Lösung zu verifizieren und ihren Zielfunktionswert zu berechnen als eine optimale Lösung zu finden. Eine der größten offenen Fragen der Theoretischen Informatik ist jedoch, ob P  NP oder P = NP. Die scheinbar sehr allgemeine Definition von NP könnte also tatsächlich äquivalent zur Definition von P sein (was allerdings kaum jemand annimmt). Es ist wichtig festzuhalten, dass es keineswegs negativ zu bewerten ist, wenn ein Problem in der Klasse NP liegt, denn NP enthält nach Definition (wegen P ⊆ NP) auch sehr einfache Probleme. Einige Probleme (in NP und darüber hinaus) haben sich als besonders hartnäckig herausgestellt. Für sie gilt, dass nur dann ein effizienter Algorithmus für sie existieren kann, wenn ein effizienter Algorithmus für jedes Problem in NP existiert. Solche Probleme heißen NP-schwer. Fände man also einen effizienten Algorithmus für ein einziges NP-schweres Problem, so hätte man bewiesen, dass P = NP gilt. Da an diesem Beweis schon viele ausgezeichnete Theoretiker gescheitert sind, wird ein Anwender an der Suche nach einem effizienten Algorithmus für ein NP-schweres Problem scheitern. Aus Sicht der Komplexitätstheorie ist es eine sehr gute Nachricht, wenn ein Problem in P liegt. Wenn ein Problem in NP liegt, ist das immer noch eine gute Nachricht – eine obere Schranke für die Komplexität des Problems. Wenn ein Problem jedoch NP-schwer ist, so ist das eine schlechte Nachricht – eine untere Schranke für seine Komplexität. Wenn man eine Zeitlang erfolglos versucht hat, einen effizienten Algorithmus für ein Problem zu finden, sollte man für eine gewisse Zeit den Standpunkt wechseln und versuchen zu zeigen, dass das Problem NP-schwer ist. Wenn einem das gelingt, kann man (nach heutigem Kenntnisstand) die Suche nach einer effizienten Lösung einstellen. Wie zeigt man aber, dass ein Problem Π NP-schwer ist? Üblicherweise sucht man ein mehr oder weniger ähnliches Problem Π , das schon als NP-schwer bekannt ist, und zeigt, dass man Π effizient lösen könnte, wenn man einen effizienten Algorithmus für Π hätte. Man sagt, dass man Π auf Π reduziert. Eine Reduktion ist ein Algorithmus, der aus jeder Instanz I von Π (in Polynomialzeit) eine Instanz I von Π konstruiert, so dass I eine Ja-Instanz ist genau dann, wenn I eine Ja-Instanz ist. Es hat sich herausgestellt, dass das NPschwere Problem planares 3-SAT [18] ein guter Startpunkt für Reduktionen ist, um die NP-Schwere von räumlichen Problemen zu beweisen; siehe z. B. die optimale Vereinfachung von Gebäudegrundrissen [12]. Es gibt viele Probleme, für die sowohl eine gute als auch eine schlechte Nachricht bekannt ist; sie liegen einerseits in NP, gehören andererseits dort zu den schwierigsten Problemen, sind also NP-schwer. Solche Probleme nennt man NP-vollständig. Da die Klasse NP nur für Entscheidungsprobleme definiert ist, kann ein Optimierungsproblem NP-schwer, aber nicht NP-vollständig sein. Die Berechnung einer maximalen unabhängigen Menge für einen gegebenen Graphen (Problem 2) ist ein klassisches NP-schweres Problem [10]. Die Existenz

196

J.-H. Haunert und A. Wolff

eines effizienten Algorithmus für dieses Problem würde also einen effizienten Algorithmus für jedes Problem in NP implizieren.

3

Lösungsansätze für effizient lösbare Probleme

Nehmen wir an, dass ein Autofahrer eine Fahrt von München nach Hamburg plant und sich für eine Route entschieden hat. Nun hat er noch einen freien Platz im Auto, den er Interessenten für Geld über eine Mitfahrzentrale anbieten möchte. Die Mitfahrzentrale betreibt eine ausgefeilte Internet-Plattform, auf der Interessenten auch für Teilstrecken einer Route Gebote abgeben können. So kann unser Autofahrer z. B. insgesamt 70 e verdienen, indem er ein Gebot von 30 e für die Teilstrecke München–Würzburg und ein Gebot von 40 e für die Teilstrecke Kassel–Hamburg annimmt. Ein Interessent, der für die Gesamtstrecke München– Hamburg 60 e geboten hat, ginge dann leer aus. Grundsätzlich können wir jedes Gebot als ein Intervall I = (a, b) repräsentieren, wobei a ∈ R den gewünschten Einstiegsort und b ∈ R den Ausstiegsort angibt (gemessen in km ab Startpunkt der Route). Zudem ist für jedes Gebot der Preis gegeben, den der Interessent bereit ist zu zahlen. Um seinen freien Sitz nicht doppelt zu vergeben, muss der Autofahrer aus der Menge aller Gebote eine unabhängige Teilmenge auswählen, also eine Teilmenge, in der die Intervalle paarweise disjunkt sind. Unter allen unabhängigen Teilmengen möchte er selbstverständlich eine finden, die die Einnahmen maximiert. Formal steht er also vor folgendem Problem. Problem 3 (Mitfahrzentrale). Gegeben sei eine Menge I von n offenen Intervallen I1 = (a1 , b1 ), I2 = (a2 , b2 ), . . . , In = (an , bn ), aufsteigend sortiert nach Endpunkt (d. h. b1 ≤ b2 ≤ · · · ≤ bn ), und Gewichte w1 , w2 , . . . , wn ≥ 0. Finde eine unabhängige Teilmenge I von I mit maximalem Gewicht. Wir benutzen offene Intervalle, d. h. solche, die ihren Rand (das sind die zwei Endpunkte) nicht enthalten. Das hat den Vorteil, dass zwei Intervalle (a, b) und (c, d) mit b = c disjunkt sind, also gemeinsam in eine Lösung gesteckt werden dürfen. Bei zwei abgeschlossenen Intervallen [a, b] und [c, d] mit b = c wäre dies nicht möglich. Das Problem der Mitfahrzentrale ähnelt augenscheinlich Problem 2, das nach einer maximalen unabhängigen Menge in einem Graphen fragt. In unserem Fall können wir einen Graphen G konstruieren, der einen Knoten für jedes Intervall enthält und in dem zwei Knoten genau dann mit einer Kante verbunden sind, wenn sich die entsprechenden Intervalle schneiden. Jede zulässige Auswahl von Intervallen entspricht nun einer unabhängigen Menge von G. Es gibt jedoch zwei Unterschiede zwischen dem Problem der Mitfahrzentrale und Problem 2: Zum einen wollen wir das Gesamtgewicht der ausgewählten Intervalle maximieren, nicht ihre schiere Anzahl. Zum anderen haben unsere Instanzen eine besondere Struktur. So ist es z. B. unmöglich, vier Intervalle I1 , I2 , I3 , I4 anzugeben, deren Schnittbeziehungen durch den Graphen G = (V , E) mit

8 Räumliche Analyse durch kombinatorische Optimierung

197

V = {I1 , I2 , I3 , I4 } und E = {{I1 , I2 }, {I2 , I3 }, {I3 , I4 }, {I4 , I1 }} repräsentiert werden. Wie wir in diesem Abschnitt sehen werden, ermöglicht dies einen effizienten Algorithmus für Problem 3 (bei beliebigen Gewichten), obwohl für allgemeine Graphen die Berechnung einer (ungewichteten) maximalen unabhängigen Menge NP-schwer ist. In diesem Abschnitt wenden wir zwei der wichtigsten Entwurfstechniken für effiziente Algorithmen (für Optimierungsprobleme) auf das Problem der Mitfahrzentrale an, nämlich gierige Algorithmen (Abschn. 3.1) für den Fall, dass alle Gewichte 1 sind, und dynamische Programmierung (Abschn. 3.2) für die gewichtete Variante des Problems. Im Anschluss daran (Abschn. 3.3) kommen wir noch einmal auf das Problem der Fabrikplanung (Problem 1) zurück und unterbieten mithilfe der Entwurfstechnik Teile und Herrsche die quadratische Laufzeit von Algorithmus 1. Diese Entwurfstechniken werden in Algorithmik-Lehrbüchern sehr ausführlich behandelt; von Cormen et al. [5] haben wir einige Aspekte des Problems der Mitfahrzentrale aufgegriffen.

3.1

Gierige Algorithmen

Betrachten wir erst den ungewichteten Fall, d. h. dass alle Mitfahrer die gleiche Gebühr bezahlen müssen, unabhängig davon wie lang die Strecke ist, die sie mitfahren. Wir können also einfach davon ausgehen, dass alle Gewichte gleich 1 sind und dass wir eine möglichst große unabhängige Teilmenge der gegebenen Menge I von Intervallen suchen. Es ist verlockend, das Problem dadurch zu lösen, dass man gierig (engl. greedy) immer wieder das kürzeste Intervall auswählt, das zur bisherigen Lösung passt. Es ist jedoch nicht schwer sich zu diesem Ansatz ein Gegenbeispiel (mit nur drei Intervallen!) auszudenken, das zeigt, dass der Ansatz nicht immer eine maximale unabhängige Teilmenge liefert. (Eine interessante Frage an dieser Stelle ist, um wie viel schlechter dieser Greedy-Algorithmus im Vergleich zu einer optimalen Lösung ist. Mit diesem Typ von Fragen beschäftigen wir uns in Abschn. 4.6.) Wir können trotzdem etwas von dem gerade verworfenen Ansatz lernen: da alle Intervalle gleichen Ertrag liefern, haben wir mit dem kürzesten Intervall versucht eines auszuwählen, das den Rest der Instanz am wenigsten einschränkt. Wenn wir diese Strategie kombinieren mit der Idee die Ordnung der Intervalle von links nach rechts auszunutzen, dann bekommen wir einen exakten Greedy-Algorithmus. Unser zweiter Algorithmus für das ungewichtete Intervallauswahlproblem wählt immer wieder das „linkeste“ Intervall Ij aus, d. h. das Intervall, dessen rechter Endpunkt unter denen der verbliebenen Intervalle am weitesten links ist (also mit minimalem bj -Wert); siehe Algorithmus 2 und Abb. 4. Dann verwerfen wir (wie oben auch) alle Intervalle, die das ausgewählte Intervall Ij schneiden. Hier geht das ganz einfach: wir brauchen nur so lange weiter nach rechts zu gehen (d. h. einen mit k = j + 1 initialisierten Zähler erhöhen), bis das aktuelle Intervall Ik disjunkt zu Ij ist (d. h. sobald ak ≥ bj gilt). Wenn wir die Intervalle also schon aufsteigend sortiert nach rechtem Endpunkt bekommen, so läuft unser

198

J.-H. Haunert und A. Wolff

Algorithmus 2: UngewichteteAblaufplanung(I ) Menge I von Intervallen I1 = (a1 , b1 ), I2 = (a2 , b2 ), . . . , In = (an , bn ) mit b1 ≤ b2 ≤ · · · ≤ bn Ausgabe: Maximale unabhängige Menge I ⊆ I I = ∅ j =1 while j ≤ n do I = I ∪ {Ij } k =j +1 while k ≤ n and ak < bj do k =k+1 j =k return I

Eingabe:

I1

In

I Abb. 4 Eine Instanz I des ungewichteten Ablaufproblems (aufsteigend sortiert nach rechtem Endpunkt) und die Greedy-Lösung I von Algorithmus 2 (unten, fett)

zweiter Greedy-Algorithmus in Linearzeit (d. h. in O(n) Zeit) – obwohl wir in Algorithmus 2 zwei ineinandergeschachtelte while-Schleifen verwendet haben. Doch warum sollte dieser Algorithmus exakt sein? Um uns davon zu überzeugen, betrachten wir eine beliebige Instanz I = {I1 , I2 , . . . , In } unseres Problems und vergleichen eine optimale Lösung I  ⊆ I mit der Lösung I ⊆ I , die unser zweiter Greedy-Algorithmus zurückgibt. Wir behaupten, dass beide Lösungen gleiche Kardinalität haben, d. h. |I  | = |I |. Um das zu sehen, bauen wir die optimale Lösung I  sukzessive zur GreedyLösung I um; siehe Abb. 5. Wir gehen von links nach rechts parallel durch beide Lösungen. Intervalle, die in beiden Lösungen vorkommen, überspringen wir. Angenommen, wir stoßen auf ein Intervall Ij der optimalen Lösung, das

8 Räumliche Analyse durch kombinatorische Optimierung

I

1. 2.

Ij bj−1

I

199

bj−1

bj

3. Ij

bj

4.

Abb. 5 Schrittweiser Umbau einer optimalen Lösung I  in die Greedy-Lösung I aus Abb. 4

verschieden vom aktuellen Intervall Ij der Greedy-Lösung ist; zum Beispiel in Schritt 3 (also für j = 3) in Abb. 5. Nun behaupten wir, dass der rechte Endpunkt von Ij nicht links vom rechten Endpunkt von Ij liegen kann, d. h. wir behaupten, dass bj ≥ bj . Falls j = 1, so ist Ij das erste Intervall der Greedy-Lösung und nach Wahl das linkeste, d. h. b1 ist minimal unter allen rechten Intervallendpunkten. Also ist unsere Behauptung bj ≥ bj für j = 1 erfüllt. Ansonsten haben wir alle bisherigen Intervalle der beiden Lösungen übersprungen, d. h. sie stimmen überein. Nun ist Ij

unter allen Intervallen rechts von Ij −1 nach Wahl wieder das linkeste, d. h. es gilt auch in diesem Fall, dass bj ≥ bj . Also können wir nun die optimale Lösung I  dahingehend abändern, dass ein Intervall mehr mit der Greedy-Lösung übereinstimmt. Dazu tauschen wir einfach Ij durch Ij aus. Die geänderte Menge I  = (I  \ {Ij }) ∪ {Ij } ist immer noch unabhängig, da Ij in die entstandene Lücke von bj −1 bis bj passt; siehe noch einmal Schritt 3 in Abb. 5. (Die Lücke ist groß genug, da bj −1 = bj −1 und bj ≥ bj , wie wir gerade gezeigt haben. Damit unsere Aussage auch für j = 1 stimmt, setzen wir b0 = b0 = −∞.) Nun gehen wir weiter parallel durch die beiden Lösungen und bauen sukzessive I  zu Ij um. Unsere Invariante ist dabei, dass der schon betrachtete Teil der beiden Lösungen übereinstimmt. (Das brauchen wir oben bei unserer Argumentation, dass für die beiden aktuellen Intervalle Ij und Ij immer bj ≥ bj gilt.) Aus der Aufrechterhaltung dieser Invarianten folgt, dass am Ende des Umbauprozesses |I  | = |I | gilt. Da wir immer ein Intervall durch ein anderes austauschen, muss die Gleichheit auch vor Beginn des Umbaus von I  zu I gegolten haben. Das ist es, was wir zeigen wollten. Der hier vorgestellte Greedy-Algorithmus ist ein Beispiel für einen iterativen Algorithmus, also einen Algorithmus, der die Lösung schrittweise aufbaut und für den Teil der Eingabe, den er bislang gesehen hat, schon eine korrekte Lösung berechnet hat. Das ist neben Teile und Herrsche (siehe Abschn. 3.3) eine sehr übliche Algorithmenentwurfstechnik. Als Kniff, mit dem wir uns von der Korrektheit eines solchen iterativen Algorithmus überzeugen können, sind Invarianten (wie die obige)

200

J.-H. Haunert und A. Wolff

sehr hilfreich. Eine Invariante muss man so wählen, dass bei Abbruch des Algorithmus aus der Abbruchbedingung der Schleife und der Invarianten die gewünschte Korrektheit des Algorithmus folgt. Außerdem muss die Invariante bei Beginn des Algorithmus (typischerweise vor dem Start der Hauptschleife) erfüllt sein. Und schließlich muss man aus der Annahme, dass die Invariante zu Beginn der j -ten Iteration gegolten hat, folgern können, dass sie auch zu Beginn der (j + 1)-ten Iteration noch gilt (falls die Abbruchbedingung der Schleife nicht erfüllt ist). Allgemein gilt für Greedy-Algorithmen, dass sie sehr naheliegend sind; die ersten Ideen, die man zur Lösung eines neuen Problems formuliert sind typischerweise Greedy-Ansätze. Meistens liefern Greedy-Algorithmen (anders als Algorithmus 2 für die ungewichtete Variante von Problem 3) jedoch keine optimalen Lösungen. Trotzdem lohnt es sich über Greedy-Ansätze nachzudenken – und sei es nur um zu verstehen, woran sie scheitern: Dort versteckt sich die eigentliche Schwierigkeit eines Problems!

3.2

Dynamische Programmierung

Betrachten wir jetzt die gewichtete Version des Problems der Mitfahrzentrale, also die Version, die wir zu Beginn von Abschn. 3 als Problem 3 definiert haben. Es ist klar, dass beide Greedy-Algorithmen für die ungewichtete Version im Allgemeinen keine guten Lösungen liefern werden, da sie die Gewichte der Intervalle nicht berücksichtigen. Genauer gesagt: es ist leicht Instanzen zu konstruieren, bei denen die Greedy-Algorithmen Lösungen liefern, deren Gewicht im Vergleich zum maximalen Gewicht einer unabhängigen Menge beliebig klein ist. Aber auch hier hilft uns die Eindimensionalität des Problems weiter. Würden wir nämlich ein Intervall einer festen optimalen Lösung I  kennen, dann würde dieses Intervall die gegebene Instanz in zwei Teilinstanzen zerlegen, die wir unabhängig voneinander lösen könnten. Noch besser wäre es, wir würden das erste oder letzte Intervall einer optimalen Lösung kennen, denn dann wäre nur eine Teilinstanz übrig, die wir noch lösen müssten. Genau das ist unser Plan: wir erraten das letzte Intervall, indem wir alle Intervalle ausprobieren und jedes mit einer optimalen Lösung für die verbliebene, kleinere Teilinstanz kombinieren. Die Kombination mit maximalem Gewicht ist dann eine optimale Lösung für die ursprüngliche Instanz – denn ein Intervall muss ja in der vorher fixierten optimalen Lösung I  das letzte sein. Diese einfache Beobachtung zeigt, dass unser Problem optimale Teilstruktur hat. Ein griffiges Beispiel für ein anderes Problem mit optimaler Teilstruktur ist das Kürzeste-Wege-Problem: jedes Teilstück eines kürzesten Weges von a nach b ist selbst wieder ein kürzester Weg – sonst gäbe es einen kürzeren Weg von a nach b. Optimale Teilstruktur ist die Voraussetzung dafür, dass man dynamische Programmierung anwenden kann. Das Wort Programmierung (engl. programming) bezieht sich hier (wie bei der mathematischen Programmierung in Abschn. 4.1) nicht auf einen Programmierstil, sondern auf das Ausfüllen von Tabellen. In der Tabelle werden Werte optimaler Lösungen von Teilinstanzen verwaltet, aus

8 Räumliche Analyse durch kombinatorische Optimierung

201

denen man sich dann den Wert einer optimalen Lösung für die ganze Instanz „zusammenbaut“. Nachdem man sich davon überzeugt hat, dass das vorliegende Problem optimale Teilstruktur aufweist, besteht der nächste Schritt zur Erstellung eines dynamischen Programms darin, den Wert einer optimalen Lösung (einer Teilinstanz) rekursiv zu definieren. Daraus ergibt sich dann im nächsten Schritt ein rekursiver Algorithmus. Wir benötigen noch etwas Notation. Sei I (k) die Teilmenge der gegebenen Intervallmenge I , die jedes Intervall Ij aus I enthält, das vor dem Startpunkt ak von Ik endet, d. h. das die Bedingung bj ≤ ak erfüllt. Außerdem sei I (n+1) = I , und für k = 1, 2, . . . , n + 1 sei Wk das Gewicht einer optimalen Lösung für I (k) . Dann gilt nach unserer obigen Diskussion Wk = max {wj + Wj }. Ij ∈I (k)

(3)

Das ist die gesuchte rekursive Definition von Werten optimaler Lösungen für Teilinstanzen: wir definieren Wk mithilfe von Wj für Werte von j , die kleiner als k sind. Dies liefert uns einen (ersten) rekursiven Algorithmus für die Berechnung von Wn+1 , dem Gewicht einer optimalen Lösung für I . Wir kapseln einfach Gl. 3 in eine Methode und ersetzen dabei Wj durch einen rekursiven Aufruf derselben Methode. Die Rekursion bricht ab, wenn die übergebene Intervallmenge leer ist; dann wird Null zurückgegeben. (Da I (1) leer ist, gilt W1 = 0.) Analysieren wir jetzt die Laufzeit des rekursiven Algorithmus. Sei T (n + 1) die Anzahl der Additionen, die bei der Berechnung von Wn+1 ausgeführt wird. Da unsere Methode rekursiv ist, ist es einfach, die Laufzeit rekursiv zu beschreiben. Es gilt T (1) = 0, da I (1) leer ist. Für n ≥ 1 gilt T (n + 1) = T (1) + T (2) + · · · + T (n) + n, da I (n+1) = I aus n Elementen besteht und daher auf der obersten Ebene der Rekursion n Additionen ausgeführt werden. Durch Einsetzen (also T (2) = 1, T (3) = 3, T (4) = 7, T (5) = 15, . . . ) gelangt man schnell zur Vermutung, dass T (n + 1) = 2n − 1 ist; dies lässt sich mit vollständiger Induktion über n auch beweisen. Mit anderen Worten: unser rekursiver Algorithmus benötigt exponentielle Zeit! (Man beachte, dass wir beim Aufstellen der Rekursionsgleichung für T stillschweigend vom Worst-Case ausgegangen sind, der darin besteht, dass für k = 1, . . . , n − 1 die Menge I (k+1) aus k Elementen besteht.) Das Problem ist offensichtlich, dass wir bei der rekursiven Berechnung von Wn+1 die Werte von W1 , W2 , . . . , Wn immer wieder von neuem berechnen. Es gibt zwei Möglichkeiten, das zu verhindern. Die erste Möglichkeit ist, die rekursive Berechnung so abzuändern, dass man eine Tabelle verwendet, in der man schon bekannte Werte von W1 , W2 , . . . , Wn ablegt und in der man bei jedem rekursiven Aufruf zuerst nachschaut, ob der Wert schon bekannt ist. Die zweite Möglichkeit ist, die Werte nicht rekursiv (also top-down, beginnend mit Wn+1 ), sondern iterativ

202

J.-H. Haunert und A. Wolff

Algorithmus 3: DynamischesProgrammIterativ(int[ ] a, int[ ] b, int[ ] w)   Eingabe: Menge I von offenen Intervallen (a[1], b[1]), . . . , (a[n], b[n]) mit Gewichten w[1], . . . , w[n] Ausgabe: Maximales Gewicht einer unabhängigen Menge in I n = w.length W = new int[n + 1] W [1] = 0 for k = 2 to n + 1 do // Berechne W [k] = maxIj ∈I (k) {w[j ] + W [j ]} iterativ: W [k] = 0 for j = 1 to n do if b[j ] ≤ a[k] then if W [k] < w[j ] + W [j ] then W [k] = w[j ] + W [j ] return W [n + 1]

(also bottom-up, beginnend mit W1 ) zu berechnen. Dieser iterative Ansatz wurde in Algorithmus 3 umgesetzt. Es ist offensichtlich, dass der iterative Algorithmus eine Laufzeit von O(n2 ) hat. (Das selbe gilt übrigens für den rekursiven Algorithmus, der immer erst in der Tabelle nachschaut.) Das Problem kann sogar in Linearzeit gelöst werden, falls die Intervalle nach Endpunkt sortiert gegeben sind [14]. Zusammenfassend gilt für Probleme, die man mittels dynamischer Programmierung optimal lösen möchte, dass die wichtige Voraussetzung der optimalen Teilstruktur gegeben sein muss. Man muss also in der Lage sein, den Wert der optimalen Lösung für eine Instanz zu berechnen, indem man auf Werte optimaler Lösungen von Teilinstanzen zurückgreift. Meistens nützt man für die Zwischenspeicherung dieser Werte ein (gegebenenfalls mehrdimensionales) Array.

3.3

Teile und Herrsche

Um die quadratische Laufzeit von Algorithmus 1 für das Problem der Fabrikplanung zu unterbieten, wenden wir uns der Strategie Teile und Herrsche zu. Grundsätzlich teilen wir dafür eine Probleminstanz in zwei oder mehr Teilinstanzen, die wir unabhängig voneinander lösen. Die Lösungen für die Teilinstanzen kombinieren wir zu einer Lösung für die ursprüngliche Instanz. Oft ist es möglich, diesen Kombinations- bzw. Herrsche-Schritt so zu entwerfen, dass die Exaktheit des Algorithmus gewährleistet ist. Algorithmus 4 setzt dieses Prinzip um, indem er die gegebene Instanz räumlich entlang einer vertikalen Linie teilt. Nach der Lösung der Teilinstanzen erfolgt eine genaue Behandlung des Grenzbereichs in der Umgebung der Trennlinie. Neben dem

8 Räumliche Analyse durch kombinatorische Optimierung

203

Algorithmus 4: NächstesPaarTeileUndHerrsche(P , = 1, r = P .length) Feld P [1..n] mit Punkten in R2 (Punkt p hat Koordinaten (p.x, p.y)); Zahlen , r ∈ Z>0 Ausgabe: Minimaler Abstand d von zwei Punkten im Teilfeld P [ ..r] 1 if r − ≤ 2 then 2 return NächstesPaarRoheGewalt(P [ ..r]) Eingabe:

3 4 5 6 7 8 9 10 11 12 13 14 15

Sortiere P [ ..r] aufsteigend nach x-Koordinate. m = ( + r)/2 xm = P [m].x dlinks = NächstesPaarTeileUndHerrsche(P , , m) drechts = NächstesPaarTeileUndHerrsche(P , m + 1, r) d = d  = min{dlinks , drechts } Sortiere P [ ..m] aufsteigend nach y-Koordinate. Sortiere P [(m + 1)..r] aufsteigend nach y-Koordinate. k =m+1 for i = to m do if xm − P [i].x < d  then while k ≤ r and P [i].y − P [k].y > d  do k =k+1

16 17 18 19

j =k while j ≤ r and P [j ].y − P [i].y < d  do d = min{d, P [i] − P [j ]} j =j +1

20 return d

Feld P mit allen n Punkten erwartet die Methode NächstesPaarTeileUndHerrsche zwei ganze Zahlen , r. Diese grenzen den Bereich von P ein, der bei der Suche nach den zwei nächsten Punkten Berücksichtigung finden soll. Beim ersten Aufruf ist = 1 und r = P .length (womit wir die Länge des Feldes P bezeichnen). Das heißt, es werden zunächst alle Punkte in P berücksichtigt. Dieses ändert sich jedoch nach dem Teile-Schritt und den erneuten (rekursiven) Aufrufen der Methode. Grundsätzlich verfolgt Algorithmus 4 die Teile-und-Herrsche-Strategie erst für Instanzen von mehr als drei Punkten. Kleinere Instanzen (das heißt, r − ≤ 2) werden mit roher Gewalt (Algorithmus 1) gelöst; siehe Zeile 2 in Algorithmus 4. Dadurch ist der Abbruch der Rekursion gewährleistet. Für r − > 2 wird das Teilfeld P [ ..r] von P zunächst aufsteigend nach xKoordinate sortiert. Danach erfolgt die Teilung der Instanz entlang einer vertikalen Geraden durch den Punkt P [m] mit m = ( + r)/2; siehe Abb. 6. Somit ist sichergestellt, dass beide Teilinstanzen (die Instanzen links und rechts der Teilungsgeraden) ungefähr gleich groß sind. Der minimale Abstand zwischen zwei Punkten in der linken Teilinstanz wird in Zeile 5 rekursiv berechnet, für die rechte

204

J.-H. Haunert und A. Wolff

y

d∗

P [m]

d∗

= min{dlinks, d rechts}

d rechts

dlinks x Abb. 6 Algorithmus 4 teilt eine Instanz durch eine vertikale Gerade in zwei Teilinstanzen. In beiden Teilinstanzen wird der minimale Abstand zweier Punkte ermittelt (dlinks und drechts ). Es bleibt zu überprüfen, ob zwei Punkte auf verschiedenen Seiten der Trenngeraden näher zueinander sind. Dafür kommen nur Punkte nahe der Trenngeraden (d. h. in der grauen Region) infrage

Teilinstanz in Zeile 6. Das Minimum d  aus diesen beiden Abständen wird in Zeile 7 berechnet. Es bleibt zu prüfen, ob zwei Punkte p = P [i] und q = P [j ], mit ≤ i ≤ m < j ≤ r Abstand p − q < d  haben. Das heißt, p liegt in der linken und q in der rechten Teilinstanz. Diese Überprüfung geschieht in Zeilen 11–18. Die grobe Vorgehensweise entspricht einem Durchlauf durch die linke Teilinstanz und einem darauf abgestimmten Durchlauf durch die rechte Teilinstanz. Dabei werden jedem Punkt p der linken Teilinstanz die Punkte der rechten Teilinstanz gegenübergestellt, die möglicherweise Abstand kleiner d  zu p haben. Um diese Abstimmung möglichst effizient zu gestalten, werden die Teilfelder P [ ..m] und P [(m + 1)..r] aufsteigend nach y-Koordinate sortiert (Zeilen 8 und 9); die Durchläufe durch P [ ..m] und P [(m + 1)..r] erfolgen von unten nach oben. Die äußere Schleife iteriert durch alle Punkte der linken Teilinstanz. Durch die ifAbfrage in Zeile 12 wird ein Punkt p nur dann weiter betrachtet, wenn sein Abstand zur Trenngeraden kleiner d  ist. Nur dann kann der Abstand von p zu einem Punkt der rechten Teilinstanz kleiner d  sein, und somit bleiben alle möglichen Optima berücksichtigt. Die erste while-Schleife (Zeilen 13–14) durchläuft die Punkte der rechten Teilinstanz, bis der erste Punkt q erreicht ist, für den p.y − q.y < d  . Für frühere Punkte kann der Abstand zu p nicht kleiner d  sein und muss daher nicht berechnet werden. Zu beachten ist, dass die Suche nach q nicht in jeder Iteration der forSchleife vom untersten Punkt der rechten Teilinstanz beginnen muss. Durch die Sortierungen der Felder nach y-Koordinate ist gewährleistet, dass der Index k des ersten relevanten Punktes q mit größer werdendem Index i von p nicht kleiner

8 Räumliche Analyse durch kombinatorische Optimierung

205

werden kann. Somit muss k nur einmal initialisiert werden (Zeile 10) und wird danach nur noch inkrementiert (Zeile 14). Ausgehend von q wird in der zweiten while-Schleife (Zeilen 16–18) jeder Punkt der rechten Teilinstanz untersucht (das heißt, sein Abstand zu p wird mit dem aktuellen Optimum d verglichen und gegebenenfalls als neues Optimum festgehalten), bis ein Punkt r mit r.y − p.y > d  erreicht ist. Spätere Punkte können aufgrund ihrer y-Abstände zu p keine optimale Lösung mit p bilden. Somit werden alle möglichen Optima berücksichtigt. Der Algorithmus ist exakt. Zur Abschätzung der Laufzeit von Algorithmus 4 unterscheiden wir den Aufwand für die rekursiven Aufrufe und den restlichen Aufwand. Sei T (n) der Gesamtaufwand, wobei n = P .length = r − + 1 > 3. Dann ist der Aufwand für die zwei rekursiven Aufrufe (aufgrund der Teilung der Instanz in zwei gleich große Instanzen) ungefähr 2 · T (n/2). Zur Abschätzung des Restaufwands stellen wir fest, dass der Laufindex i und der Laufindex k höchstens O(n)-mal inkrementiert werden. Ferner gilt, dass für jedes j ∈ {m + 1, . . . , r} der Punkt P [j ] in Abstandsmessungen zu höchstens sechs verschiedenen Punkten der linken Teilinstanz Berücksichtigung findet. Der Grund dafür ist, dass der Abstand zwischen jedem Paar dieser Punkte mindestens d  ist, jeder der Punkte höchstens Abstand d  von der Trenngeraden hat und jeder der Punkte höchstens vertikalen Abstand d  von P [j ] hat; siehe Abb. 7. Es ist einfach zu sehen, dass diese Bedingungen von höchstens sechs Punkten der linken Teilinstanz erfüllt sein können. Somit wird auch die zweite while-Schleife insgesamt O(n)mal ausgeführt. Zusammengefasst bedeutet dies, dass der restliche Aufwand durch die drei Aufrufe des Sortieralgorithmus dominiert wird und sich zu Θ(n log n) ergibt, zum Beispiel wenn die Sortierung mit MergeSort [5] erfolgt – das ist ein Sortieralgorithmus, der wie Algorithmus 4 auf Teile und Herrsche beruht. In der Summe aus Rekursions- und Restaufwand ergibt sich die Laufzeit zu  T (n) =

Abb. 7 Nur für Punkte im Rechteck R = [P [m].x −d  , P [m].x]× [P [j ].y − d  , P [j ].y + d  ] wird die Distanz zu Punkt P [j ] berechnet. In R können höchstens sechs Punkte liegen, deren Abstände mindestens d  sind: in den vier Ecken und den Mittelpunkten der vertikalen Seiten

Θ(1)

für n < 3 ,

2 · T (n/2) + Θ(n log n)

sonst.

(4)

P [m] d∗

d∗ d∗

R

P[j] d∗

206

J.-H. Haunert und A. Wolff

Die Lösung derartiger Rekursionsgleichungen oder Rekurrenzen ist oft für die Laufzeitanalyse von rekursiven Algorithmen erforderlich. In unserem Fall ergibt sich die Lösung beispielsweise nach der Rekursionsbaummethode [5] zu T (n) = Θ(n log2 n). Algorithmus 4 ist also asymptotisch schneller als Algorithmus 1, denn log2 n wächst viel langsamer als n. Die Laufzeit von Algorithmus 4 lässt sich zu Θ(n log n) verbessern, indem die Punkte in zwei Feldern X und Y vorgehalten werden, von denen das eine nach x-Koordinate und das andere nach y-Koordinate sortiert ist. Diese Sortierungen werden einmal zu Beginn des Algorithmus hergestellt. Im Teile-Schritt wird das Feld Y umsortiert, so dass Y [ ..m] bzw. Y [(m + 1)..r] die Punkte von Y [ ..r] links bzw. rechts der Trenngeraden enthält, jedoch die Sortierung nach y-Koordinaten in jedem der beiden Teilfelder gewährleistet bleibt. Da diese Umsortierung in Θ(n) Zeit vollzogen werden kann (n = r − + 1), verändert sich die zweite Zeile der Rekursionsgleichung (4) zu T (n) = 2T (n/2) + Θ(n). Die Lösung der neuen Rekursionsgleichung ist T (n) = Θ(n log n). Lässt sich unsere Strategie der geometrischen Zerteilung einer Probleminstanz verallgemeinern? Natürlich kann man einen geographischen Datensatz räumlich teilen, die Daten jedes Teils für sich prozessieren und (gegebenenfalls) die Nahtstellen einer speziellen Behandlung unterziehen. Ob sich dadurch ein exakter Algorithmus ergibt, muss aber in jedem Einzelfall genau untersucht werden.

4

Lösungsansätze für NP -schwere Probleme

Stellen wir uns vor, dass eine Restaurantkette von der Insolvenz bedroht ist. Nach eingehenden Untersuchungen zur Ursache der Misere kommt die Restaurantleitung zu der Einsicht, dass ein Restaurant genau dann Gewinne bringt, wenn sich im Abstand von weniger als z. B. D = 2 km kein weiteres Restaurant befindet. Da diese Bedingung in der aktuellen Situation mehrfach verletzt ist, müssen einige Restaurants geschlossen werden. Das Ziel der Restaurantleitung besteht darin, möglichst wenige Restaurants zu schließen, so dass das Abstandskriterium erfüllt ist. Offensichtlich ist das Abstandskriterium erfüllt, wenn wir für jedes Restaurant p einen Kreis mit Radius D/2 und Zentrum in p konstruieren können und sich dabei keine zwei Kreise schneiden. Zur Vereinfachung nehmen wir D/2 = 1 an, womit sich der Restaurantkette das folgende Problem stellt: Problem 4 (Restaurantauswahl). Gegeben sei eine Menge C von n offenen Kreisen (d. h. wir zählen den Rand eines Kreises nicht zum Kreis dazu) mit Radius 1 in der Ebene. Finde eine maximale unabhängige Teilmenge C ⊆ C, d. h. eine möglichst große Teilmenge von C, in der sich keine zwei verschiedenen Kreise schneiden. Abb. 8 zeigt eine Instanz dieses Problems mit einer optimalen Lösung.

8 Räumliche Analyse durch kombinatorische Optimierung Abb. 8 Eine Instanz zu Problem 4. Die grau gefüllten Kreise bilden eine optimale Lösung

207

c5 c4

c6 c10

c3

1

c7 c9

c1 c2

c8

Abb. 9 Die Instanz aus Abb. 8 als Graph. Die Lösung (schwarze Knoten) entspricht einer maximalen unabhängigen Menge

Das Problem der Restaurantkette (Problem 4) ist offensichtlich ein Spezialfall von Problem 2, wie es auch schon das Problem der Mitfahrzentrale (Problem 3) war. So können wir einen Graphen G = (V , E) berechnen, dessen Knotenmenge V ein Element für jeden Kreis in C enthält und dessen Kantenmenge E genau dann eine Kante {u, v} zwischen zwei Knoten u, v ∈ V enthält, wenn die Kreise für u und v einen Schnitt aufweisen; siehe Abb. 9. Eine optimale Lösung zum Problem der Restaurantkette entspricht dann einer maximalen unabhängigen Menge von G. Unser effizienter Algorithmus für Problem 3 wirft natürlich die Frage auf, ob auch Problem 4 (z. B. aufgrund seiner geometrischen Struktur) wesentlich leichter zu lösen ist als das allgemeine Problem, eine maximale unabhängige Menge in einem Graphen zu berechnen. (Man beachte, dass Problem 3 genau die gewichtete eindimensionale Version des zweidimensionalen Problems 4 ist. Anders als im Eindimensionalen trennt hier ein ausgewähltes Objekt die Instanz jedoch nicht in unabhängige Teilinstanzen.) Insofern ist es nicht verwunderlich, dass man zeigen konnte [4], dass die Berechnung einer maximalen unabhängigen Menge auch dann NP-schwer ist, wenn der gegebene Graph, wie in unserem Fall, aus den Schnittbeziehungen zwischen Einheitskreisen herrührt. Es ist auch NP-schwer zu entscheiden, ob sich ein gegebener Graph als Schnittgraph von Einheitskreisen darstellen lässt [2]. Und selbst, wenn die geometrische Darstellung gegeben ist, ist es NP-schwer eine maximale unabhängige Menge zu finden [9].

208

J.-H. Haunert und A. Wolff

Beim Problem der Restaurantkette handelt es sich also um eine wirklich harte Nuss, die besondere Mittel erfordert. In diesem Abschnitt stellen wir Lösungsansätze durch mathematische Programmierung (Abschn. 4.1–4.3), Heuristiken (Abschn. 4.4–4.5) und Approximationsalgorithmen (Abschn. 4.6) vor.

4.1

Mathematische Programmierung

Ein genereller Ansatz zur Lösung von Problemen der kombinatorischen Optimierung ist die mathematische Programmierung. Dabei verweist der Name „Programmierung“ nicht auf die Implementierung von Computerprogrammen, sondern auf die Modellierung eines Problems in einer bestimmten Form, als mathematisches Programm. Im Allgemeinen besteht ein mathematisches Programm aus einer Zielfunktion und einer Menge von Bedingungen (Gleichungen oder Ungleichungen) über eine Menge von Variablen. Das Ziel besteht darin, eine Variablenbelegung zu finden, die alle Bedingungen erfüllt und hinsichtlich der Zielfunktion optimal ist. Ein in der Geodäsie besonders häufig gewählter Ansatz, den man der mathematischen Programmierung zuordnen kann, ist die Ausgleichungsrechnung [20]. Dabei ist ein Vektor ∈ Rn von Beobachtungen (z. B. Entfernungsmessungen) gegeben. Mit diesen soll ein Vektor x ∈ Ru von Unbekannten (z. B. Koordinaten eines Punktes) geschätzt werden. Im einfachsten Fall der Ausgleichungsrechnung lässt sich der Zusammenhang zwischen und x mithilfe einer (n × u)-Matrix A und durch ein System von Bedingungsgleichungen in der Form = Ax ausdrücken, wobei die Anzahl n der Beobachtungen in der Regel größer als die Anzahl u der Unbekannten ist. Da das Gleichungssystem für n > u im Allgemeinen unlösbar ist, führt man einen Vektor v ∈ Rn mit zusätzlichen Variablen (den Verbesserungen) ein und ändert das Gleichungssystem zu +v = Ax. (Die ursprünglichen Bedingungen werden somit aufgeweicht.) Das neue Gleichungssystem gilt es nun durch die Wahl der Vektoren v ∈ Rn und x ∈ Ru zu erfüllen. Unter allen zulässigen Wahlmöglichkeiten für v und x ist dabei eine gesucht, die das Produkt (bzw. die Zielfunktion) v T v minimiert. Damit wird bezweckt, dass die Verbesserungen klein bleiben – die Beobachtungen werden nur so viel wie nötig ausgeglichen. Eine optimale Lösung für x ergibt sich durch Lösung des linearen Gleichungssystems AT Ax = AT . Es folgt v = Ax − . Im Allgemeinen werden mathematische Programme nach der Art der Zielfunktion und der Bedingungen sowie nach dem Wertebereich der Variablen klassifiziert. Von besonderer Bedeutung für die kombinatorische Optimierung sind lineare Programme und ganzzahlige lineare Programme, da sie sich zur Modellierung vieler Probleme eignen. Anders als bei der Ausgleichungsrechnung lassen sich optimale Lösungen für (ganzzahlige) lineare Programme jedoch nicht durch die Lösung eines linearen Gleichungssystems berechnen. Allerdings gibt es auch für sie geeignete Lösungsalgorithmen, die in sehr hochentwickelten Computerprogrammen implementiert sind. Derartige Computerprogramme werden auch als Problemlöser bezeichnet.

8 Räumliche Analyse durch kombinatorische Optimierung

209

In einem linearen Programm (linear program, LP) bestehen die Zielfunktion und die Bedingungen ausschließlich aus Termen, die linear von jeweils einer der Variablen abhängen oder konstant sind. Die Bedingungen liegen in Form von Ungleichungen vor. Die Variablen sind kontinuierlich, das heißt, sie dürfen jeden reellen Wert annehmen. Das folgende Beispiel erfüllt die Definition eines LPs: Minimiere unter den Bedingungen

x1 + 2x2

(5)

16x1 + 12x2 ≥ 35

(6)

16x1 − 12x2 ≤ 17

(7)

x1 , x2 ∈ R .

(8)

Ein ganzzahliges lineares Programm (integer linear program, ILP) unterscheidet sich von einem LP nur darin, dass die Variablen ausschließlich ganzzahlige Werte annehmen dürfen. So wird aus unserem Beispiel ein ILP, indem wir Gl. (8) durch x1 , x2 ∈ Z

(9)

ersetzen. Abb. 10 stellt unser LP aus Formeln Gl. (5), (6), (7) und (8) geometrisch dar. Dabei wird jede Lösung als ein Punkt in der Ebene aufgefasst, indem die Werte von x1 und x2 auf jeweils einer Achse aufgetragen werden. Jede Bedingung des LPs beschränkt die Lösungsmenge (das ist die Menge aller zulässiger Lösungen) auf eine Halbebene, so dass die Lösungsmenge gleich der Schnittmenge S aller Halbebenen ist (schattierte Fläche in Abb. 10). Unter allen Punkten in S sind wir an einem Punkt interessiert, der die Zielfunktion minimiert. Um solch einen Punkt in der Abbildung zu ermitteln, kombinieren wir die Koeffizienten der Variablen in  der Zielfunktion zu einem Vektor c, in unserem Fall c = 12 . Alle Punkte auf einer Abb. 10 Die optimale Lösung s  des LPs aus Gl. (5), (6), (7) und (8) und die optimale Lösung s¯ des ILPs aus Gl. (5), (6), (7) und (9)

x2 S s¯ (7) s

(6)

c x1

210

J.-H. Haunert und A. Wolff

Geraden , die orthogonal zu c ist, sind hinsichtlich der Zielfunktion gleichwertig. Konstruieren wir eine derartige Gerade und bewegen sie über die Ebene entlang der Richtung von c, so stellt der Punkt in S, der als erstes von berührt wird, eine optimale Lösung dar. Die gestrichelten Linien in Abb. 10 veranschaulichen verschiedene Positionen von während dieser Bewegung. Wir erzielen die optimale   Lösung s  = 1,625 . 0,75 Betrachten wir nun unser ILP bestehend aus Formeln Gl. (5), (6), (7) und (9).  Durch 1Forderung von x1 , x2 ∈ Z wird s unzulässig. Die neue optimale Lösung ist s¯ = 2 . Trotz der Ähnlichkeit des LPs und des ILPs unterscheiden sich ihre Lösungen s  und s¯ deutlich voneinander. Insbesondere erhält man durch Runden der Komponenten von s  keine zulässige Lösung, geschweige denn die Lösung s¯ des ILPs. Tatsächlich hat der unterschiedliche Wertebereich der Variablen eine gravierende Konsequenz: Während LPs z. B. mit dem Algorithmus von Karmarkar [15] effizient gelöst werden können, ist die Lösung von ILPs NP-schwer. Oft werden LPs mit dem Simplex-Algorithmus [6] gelöst, der im Gegensatz zu Karmarkars Algorithmus eine exponentielle Worst-Case-Laufzeit hat, aber in der Praxis effizient ist. Es wird uns höchstwahrscheinlich nicht gelingen, ein NP-schweres Problem in die Form eines LPs mit einer sinnvollen (d. h. polynomiellen) Größe zu bringen – sonst hätten wir mithilfe Karmarkars Algorithmus eine effiziente Lösung für das NP-schwere Problem gefunden (und damit P = NP gezeigt). Die ganzzahlige lineare Programmierung stellt dagegen ein durchaus vielversprechendes Mittel zur Lösung NP-schwerer Probleme dar. Trotz der exponentiellen Worst-CaseLaufzeit, die alle bekannten Algorithmen zur Lösung von ILPs haben, lassen sich viele ILPs in der Praxis in vernünftiger Zeit lösen.

4.2

Ein einfaches ganzzahliges lineares Programm zur Berechnung maximaler unabhängiger Mengen

Bevor wir den am weitesten verbreiteten Lösungsansatz für ILPs diskutieren, soll die Anwendbarkeit der ganzzahligen linearen Programmierung anhand von Problem 4 demonstriert werden. Hierfür definieren wir eine Variable xc ∈ {0, 1}

für jeden Kreis c ∈ C,

(10)

wobei xc = 1 bedeutet, dass ein Kreis c in der Menge C der ausgewählten Kreise enthalten ist. Das Ziel, möglichst viele Kreise auszuwählen, wird damit zu: Maximiere



xc

(11)

c∈C

Ohne weitere Bedingungen würde die Zielfunktion natürlich dazu führen, dass alle Kreise ausgewählt würden, also für jeden Kreis c ∈ C die Variable xc auf 1 gesetzt würde. Dies wäre jedoch im Allgemeinen keine zulässige Lösung im Sinne

8 Räumliche Analyse durch kombinatorische Optimierung

211

der Problemdefinition. Wir stellen die Zulässigkeit einer Lösung sicher, indem wir für jedes Paar (a, b) sich schneidender Kreise in C die folgende ganz einfache Bedingung aufstellen: xa + xb ≤ 1

für alle a, b ∈ C mit a = b und a ∩ b = ∅

(12)

Also dürfen a und b nicht gleichzeitig für eine Lösung ausgewählt werden. Bedingung Gl. (12) wird im schlechtesten Fall Θ(n2 )-mal erzeugt, denn es gibt Θ(n2 ) Paare von Kreisen und jedes Paar kann einen Schnitt aufweisen. Binäre Variablen eignen sich inbesondere, um zwischen zwei möglichen Alternativen (z. B. Selektion oder keine Selektion eines Kreises) zu unterscheiden, und werden daher besonders oft in ILPs verwendet. Eine binäre Variable x ∈ {0, 1} kann jedoch als gewöhnliche ganzzahlige Variable x ∈ Z mit Bedingungen 0 ≤ x und x ≤ 1 interpretiert werden.

4.3

Lösung ganzzahliger linearer Programme

Zur Lösung ganzzahliger linearer Programme wird in der Regel Branch-and-Cut eingesetzt, welches eine Kombination von Branch-and-Bound und Schnittebenenverfahren darstellt. Wir beschreiben beide Verfahren und ihre Kombination zu Branch-and-Cut und gehen auf Implikationen für die Praxis ein. Sowohl Branch-and-Bound als auch Schnittebenenverfahren beginnen die Lösung eines ILPs mit der Lösung seiner LP-Relaxierung, in der reelle Werte für die ganzzahlligen Variablen des ILPs zugelassen werden. In unserem Beispiel aus Abschn. 4.1 heißt das, dass x1 , x2 ∈ Z zu x1 , x2 ∈ R relaxiert (aufgeweicht) wird. Das Wort „Branch“ (Verzweigen) in Branch-and-Bound verweist darauf, dass eine Variable xi mit nicht ganzzahligem Wert xi in der Lösung s  der LP-Relaxierung ausgewählt und die ursprüngliche Probleminstanz in zwei Instanzen aufgeteilt wird. Jede der beiden neuen Instanzen erbt dabei alle Bedingungen der ursprünglichen Instanz und erhält zusätzlich eine der Bedingungen xi ≤ xi  und xi ≥ xi . Das heißt, der Wert xi wird ab- bzw. aufgerundet. In unserem Beispiel selektieren wir x1 (mit Wert 1,625) zur Verzweigung und generieren zwei neue Instanzen, jeweils durch Hinzufügen einer der Bedingungen x1 ≤ 1

(13)

x1 ≥ 2,

(14)

wie es in Abb. 11 dargestellt ist. Die Verzweigung kann rekursiv auf Teilinstanzen angewandt werden. Somit entsteht ein Baum, in dem jeder Knoten einem ILP entspricht. Das Verfahren terminiert, sobald für jedes Blatt des Baums die optimale Lösung der LP-Relaxierung ganzzahlig ist oder die Lösungsmenge der LP-Relaxierung leer ist. Die beste ganzzahlige Lösung stellt eine optimale Lösung für das ursprüngliche ILP dar.

212 Abb. 11 Durch Verzweigung (Branching) wird ein ILP in zwei ILPs zerteilt

J.-H. Haunert und A. Wolff

x2

(13)

(14)



s

c x1∗

x1

Das Wort „Bound“ in Branch-and-Bound verweist darauf, dass in jedem Knoten des Branch-and-Bound-Baums für das entsprechende ILP eine Schranke berechnet wird. Bei einem Minimierungsproblem wird in jedem Knoten eine untere Schranke berechnet; das ist ein Wert, der niemals größer ist als der Zielfunktionswert einer optimalen Lösung für das entsprechende ILP. In der Regel wird die Lösung der LP-Relaxierung als Schranke verwendet. Die LP-Relaxierung eines ILPs liefert im Falle eines Minimimierungsproblems tatsächlich eine untere Schranke, denn die Lösungsmenge eines ILPs ist in der Lösungsmenge seiner LP-Relaxierung enthalten. Dies kann ausgenutzt werden, um einige Äste des Branch-and-BoundBaums vorzeitig abzuschließen und den Baum somit klein zu halten. Nehmen wir an, dass wir in einem Knoten des Branch-and-Bound-Baums eine ganzzahlige Lösung mit Zielfunktionswert z finden. Dann kann die Rekursion in jedem Knoten v abgebrochen werden, für den eine untere Schranke L ≥ z vorliegt. Der Grund dafür ist, dass es im Teilbaum mit Wurzel v keine Lösung geben kann, die einen Zielfunktionwert besser als z erreicht. Der Erfolg dieses Verfahrens hängt offensichtlich davon ab, wie ähnlich sich die Zielfunktionswerte der optimalen Lösung eines ILPs und der optimalen Lösung seiner LP-Relaxierung sind. Viele ILP-Formulierungen sind leider sehr schwach, d. h. die LP-Relaxierung erlaubt (gemessen an der Zielfunktion) oft wesentlich bessere Lösungen als das zugehörige ILP. Betrachten wir zum Beispiel unser ILP aus Formeln Gl. (10), (11) und (12) für das Problem der Restaurantkette. Nehmen wir eine Instanz der Größe n > 1, in der jeder Kreis jeden anderen Kreis schneidet. In diesem Fall können wir höchstens einen Kreis für die Lösung auswählen; entsprechend hat die Zielfunktion f für eine optimale Lösung s¯ des ILPs den Wert f (¯s ) = 1. In der LP-Relaxierung, die kontinuierliche (also nicht-ganzzahlige) Werte erlaubt, können wir jedoch jede der n Variablen auf 0,5 setzen, ohne Bedingung Gl. (12) zu verletzten. Somit hat das Optimum s  der LP-Relaxierung den Zielfunktionswert f (s  ) = n/2, was für große n darauf hinausläuft, dass f (s  ) im Verhältnis zu f (¯s ) extrem groß wird und somit ein schlechter Schätzwert für f (¯s ) ist.

8 Räumliche Analyse durch kombinatorische Optimierung

213

Für Problem 4 können wir eine stärkere ILP-Formulierung gewinnen, indem wir das Arrangement A betrachten, das durch die Überlagerung aller Kreise einer gegebenen Instanz gebildet wird. Beispielsweise bilden in Abb. 8 alle Punkte der Ebene, die sowohl in c2 , c3 und c7 , aber in keinem anderen Kreis enthalten sind, eine Facette. Diese wird durch drei Kreisbögen begrenzt, nämlich durch jeweils einen Teil des Rands von c2 , c3 und c7 . Für jede Facette F von A definieren wir eine Bedingung, die dafür sorgt, dass höchstens ein Kreis selektiert wird, der F enthält: 

xc ≤ 1

für jede Facette F von A,

(15)

c∈CF

wobei CF die Menge der Kreise ist, die F enthalten. Für die Facette, die der Schnittmenge von c2 , c3 und c7 entspricht, wird Bedingung Gl. (15) zu xc2 + xc3 + xc7 ≤ 1. Es ist damit nicht mehr möglich, in der LP-Relaxierung alle Variablen auf 0,5 zu setzen. Für realistische Instanzen liefert die LPRelaxierung somit tatsächlich bessere Schätzungen des ganzzahligen Optimums. Für die Instanz in Abb. 13 mit n = 2500 hatte die LP-Relaxierung mit Bedingung Gl. (15) eine Lösung mit Zielfunktionswert 467,28. Dieses kommt dem Optimum des ILPs in Höhe von 453 sehr nahe, wenn man bedenkt, dass die LP-Relaxierung ohne Bedingung Gl. (15) eine Lösung mit Zielfunktionswert 0,5 · 2500 = 1250 hat. Übrigens lassen sich die Facetten eines Arrangements von n Kreisen effizient mit einem Sweep-Line-Algorithmus [8] berechnen, und es lässt sich leicht zeigen, dass ein derartiges Arrangement nur O(n2 ) Facetten hat: Der Rand eines Kreises wird durch Schnitte mit anderen Kreisen in höchstens 2(n − 1) Kreisbögen zerteilt. Es gibt also nicht mehr als n · 2(n − 1) bzw. O(n2 ) Grenzen zwischen verschiedenen Facetten – und somit auch nur O(n2 ) Facetten. Das ILP mit Bedingung Gl. (15) hat demnach eine überschaubare Größe; wie das ILP aus Gl. (5), (6), (7) und (9) hat es Θ(n2 ) Bedingungen. Zudem können einige Bedingungen weggelassen werden, da sie von anderen Bedingungen dominiert werden. Die Bedingung xc2 + xc3 ≤ 1 ist z. B. durch xc2 +xc3 +xc7 ≤ 1 sichergestellt und muss daher nicht zusätzlich bedacht werden. Bei der Lösung mit Branch-and-Bound (ohne Kombination mit Schnittebenenverfahren) führt die stärkere ILP-Formulierung zu einer deutlichen Reduktion der Laufzeit. Dies zeigte ein Test mit 50 zufällig erzeugten Instanzen mit 2500 Kreisen. Eine dieser Instanzen ist in Abb. 13 zu sehen. Die durchschnittliche Laufzeit wurde durch Ersetzen von Bedingung Gl. (12) durch (15) von 1024 auf 245 Sekunden verbessert; siehe Tab. 1 (Spalten 2–3). Erfreulicherweise können gute Problemlöser schwache ILP-Formulierungen oft automatisch verstärken. Dazu wird Branch-and-Bound in der Regel mit Schnittebenenverfahren kombiniert. Eine Schnittebene ist eine zusätzliche Bedingung in Form einer Ungleichung, welche die optimale Lösung der LP-Relaxierung eines ILPs ausschließt, ohne eine zulässige ganzzahlige Lösung auszuschließen. In unserem ILP aus Gl. (5), (6), (7) und (9) stellt die Ungleichung

214 Abb. 12 Eine Schnittebene entfernt die optimale Lösung der LP-Relaxierung, ohne eine ganzzahlige Lösung auszuschließen

J.-H. Haunert und A. Wolff

x2

s¯ (16) s

c x1

Abb. 13 Eine zufällig generierte Instanz zu Problem 4 aus 2500 Kreisen (links) und eine optimale Lösung mit 453 Kreisen (rechts)

x1 + 2x2 ≥ 4,

(16)

eine solche Schnittebene dar; siehe Abb. 12. Diese lässt sich mit dem Verfahren von Gomory [11] berechnen. Schnittebenenverfahren können ILPs ganz allein (ohne Branch-and-Bound) lösen, indem sie iterativ die LP-Relaxierung lösen, eine Schnittebene finden und sie dem ILP hinzufügen, bis die LP-Relaxierung die Ganzzahligkeitsbedingung erfüllt. In diesem Fall ist eine optimale Lösung für das ursprüngliche ILP gefunden. Dieser Ansatz führt in der Regel jedoch erst nach sehr vielen Iteration zu einer optimalen ganzzahligen Lösung. Durch das Hinzufügen einer vergleichsweise kleinen Zahl von Schnittebenen kann eine ILP-Formulierung jedoch oft bereits entschieden verstärkt werden. Daher werden Schnittebenenverfahren und Branchand-Bound oft kombiniert, zu Branch-and-Cut. Die heutzutage erfolgreichsten

8 Räumliche Analyse durch kombinatorische Optimierung

215

Tab. 1 Durchschnittliche Laufzeiten (in Sekunden) des Problemlösers Gurobi für 50 zufällig erzeugte Instanzen, ähnlich zu der in Abb. 13. Jede Instanz enthält 2500 Einheitskreise, deren Mittelpunkte im Quadrat [0, 50] · [0, 50] liegen. Die Tests erfolgten auf einem Windows PC mit 8 GB Arbeitsspeicher und einem Intel-Prozessor mit einer Taktfrequenz von 3,40 GHz Algorithmus Branch + Bound (ohne Schnittebenen) Branch + Cut (mit Schnittebenen) ILP: (10) & (11) & (12) (15) (12) (15) Laufzeit (in Sek.) 1024 245 9,8 9,6

Problemlöser für ganzzahlige Programme wie Gurobi und CPLEX verfolgen diese Strategie. In unserem Test ergab sich mit Branch-und-Cut eine deutliche Reduktion der Laufzeiten im Vergleich zu Branch-and-Bound. Instanzen von 2500 Kreisen konnten wir im Mittel in weniger als 10 Sekunden lösen; siehe Tab. 1 (Spalten 4–5). Durch die Verstärkung der ILPs mit automatisch erzeugten Schnittebenen fällt der Vorteil unseres starken ILPs (mit Bedingung Gl. (15) statt (12)) allerdings kaum noch ins Gewicht. Nichtsdestoweniger ist es in der Praxis oft wichtig, eine starke ILP-Formulierung zu finden. Außerdem sind ILP-Formulierungen vorzuziehen, die mit wenigen Bedingungen und Variablen auskommen. In der Regel ist die Stärke eines ILPs jedoch wichtiger als seine geringe Größe.

4.4

Eine einfache Heuristik

Nicht jeder Benutzer hat Zugriff auf einen kommerziellen Problemlöser für ILPs – oder nicht die Zeit und den Speicherplatz, die nötig wären, um auch größere Instanzen exakt zu lösen. Dann liegt es nahe sein Glück mit einer Heuristik zu versuchen, also mit einem Algorithmus, der keine Aussage über die Qualität seiner Lösungen trifft. In diesem Fall empfiehlt es sich jedoch, parallel zur Heuristik eben doch einen langsamen, aber exakten Algorithmus (etwa über eine ILP-Formulierung) zu implementieren. So bekommt man wenigstens auf kleinen Probleminstanzen ein Gefühl dafür, wie gut oder schlecht die Heuristik tatsächlich ist. Beim Problem der Restaurantkette (Problem 4) würde eine ganz einfache Heuristik darin bestehen, dass man wiederholt einen beliebigen Kreis c ∈ C auswählt, aus C entfernt und in die Ausgabemenge C steckt. Das funktioniert natürlich nur, wenn man alle Kreise c ∈ C, die c schneiden, ebenfalls aus C entfernt. Dadurch wird vermieden, dass die Ausgabe (siehe Algorithmus 5) ein Paar sich schneidender Kreise enthält. Also ist die Ausgabe unserer Heuristik zulässig. Dieser Algorithmus ist übrigens eine gierige Heuristik. Das ist eine gieriger Algorithmus, der anders als z. B. der gierige Algorithmus aus Abschn. 3.1 keine optimale Lösung garantiert. Wie jeder gierige Algorithmus trifft allerdings auch Algorithmus 5 immer wieder Entscheidungen, die in der momentanen Situation richtig erscheinen, ohne sich jedoch über die globale Richtigkeit dieser Entscheidungen Gedanken zu machen.

216

J.-H. Haunert und A. Wolff

Algorithmus 5: KreisAuswahlGierig(P ) Eingabe: Menge C mit Einheitskreisen gegeben durch ihre Zentren Ausgabe: Nicht-erweiterbare unabhängige Menge C von C C = ∅ while C = ∅ do Wähle ein beliebiges c ∈ C C = C ∪ {c} foreach c¯ ∈ C do if c¯ ∩ c = ∅ then C = C \ {c} ¯ return C

4.5

Lokale Suche

Ein allgemeiner heuristischer Ansatz zur Lösung NP-schwerer Probleme besteht darin, statt einer global optimalen Lösung eine lokal optimale Lösung zu berechnen. Grundsätzlich bezeichnet man damit eine Lösung, die in einer festgelegten Nachbarschaft von keiner anderen Lösung hinsichtlich der Zielfunktion übertroffen wird. Betrachten wir beispielsweise eine Lösung s zu einer Instanz C von Problem 4; siehe Abb. 14. Wir definieren die Nachbarschaft N1 (s) als die Menge aller Lösungen für C, die man ausgehend von s erreichen kann, indem man einen zusätzlichen Kreis c ∈ C in s aufnimmt und alle Kreise in s ausschließt, die von c geschnitten werden. Wenn es in N1 (s) keine Lösung s  gibt, die mehr Kreise enthält als s, dann heißt s lokal optimal. Demnach ist die Lösung von Algorithmus 5 lokal optimal, denn sie kann keinen weiteren Kreis aufnehmen, ohne mindestens einen anderen Kreis auszuschließen. Ob wir eine Lösung als lokal optimal bezeichnen können, hängt natürlich stark von der zugrunde gelegten Nachbarschaft ab. Die Definition unserer Nachbarschaft N1 für Problem 4 lässt sich zum Beispiel folgendermaßen verallgemeinern: Nk (s) ist die Menge aller Lösungen, die man ausgehend von s erreichen kann, indem man höchstens k zusätzliche Kreise in s aufnimmt und alle Kreise in s, die von den zusätzlichen Kreisen geschnitten werden, ausschließt. Algorithmus 5 berechnet zwar eine Lösung, die hinsichtlich der Nachbarschaft N1 lokal optimal ist, aber für k > 1 ist die lokale Optimalität hinsichtlich der (größeren) Nachbarschaft Nk nicht gewährleistet. Es ist durchaus üblich, die Größe einer Nachbarschaft durch einen Parameter k zu steuern. Allgemein ist der Begriff k-opt-Nachbarschaft für eine so parametrisierte Nachbarschaft gebräuchlich. Eine Lösung, die hinsichtlich der kopt-Nachbarschaft lokal optimal ist, bezeichnet man auch als k-optimal. Grundsätzlich lässt sich eine Lösung, die hinsichtlich einer Nachbarschaft N lokal optimal ist, mit Algorithmus 6 berechnen. Dieser sucht ausgehend von einer zulässigen Startlösung s nach der besten Lösung s in der Nachbarschaft N (s).

8 Räumliche Analyse durch kombinatorische Optimierung

217

s Abb. 14 Eine Instanz von Problem 4 mit einer Lösung s (mittig) und ihren vier Nachbarn in N1 (s). Da keiner der Nachbarn mehr Kreise enthält als s, ist s hinsichtlich N1 lokal optimal

Algorithmus 6: Lokale Suche s = eine zulässige Lösung while true do s = beste Lösung in N (s) if s ist besser als s then s = s

else return s

Ist s besser als s, so setzt der Algorithmus die Suche ausgehend von s fort; ansonsten gibt er die aktuelle Lösung s zurück. Im Beispiel von Problem 4 könnte man die leere Menge als Startlösung nehmen. Eine bessere Startlösung könnte man dagegen mit Algorithmus 5 berechnen – die lokale Suche würde dann der Nachbesserung dienen. Die Nachbarschaft Nk (s) einer Lösung s hat in diesem Beispiel Größe O(nk ), daher kann die beste Lösung in der Nachbarschaft von s für kleine k effizient durch explizite Enumeration berechnet werden. Die while-Schleife wird O(n)-mal durchlaufen, denn mit jeder Iteration stellt sich eine Verbesserung um mindestens 1 ein und eine Lösung kann höchstens alle n Kreise der Eingabe enthalten. Algorithmus 6 lässt sich auf vielfältige Weise anpassen und variieren, um für ein spezielles Problem eine gute Heuristik zu gewinnen. Beispielsweise wird die Suche nach der besten Lösung in der Nachbarschaft N (s) der aktuellen Lösung s oft vermieden. Stattdessen wird eine zufällige Lösung s in N (s) generiert und mit der aktuellen Lösung s verglichen. Ist s besser als s, so wird s als neue aktuelle Lösung akzeptiert. Ansonsten wird in der Nachbarschaft von s weiter nach einer besseren Lösung gesucht, bis ein Abbruchkriterium (z. B. eine festgelegte Anzahl an Iterationen) erreicht ist. Eine besonders häufig verwende Variante von Algorithmus 6 bezeichnet man als Simulated Annealing [16], was simuliertes Ausglühen bedeutet und mit der Inspiration des Algorithmus aus der Metallverarbeitung zusammenhängt, in der Stähle durch langsame Abkühlungsprozesse erzeugt werden. Beim Simulated Annealing

218

J.-H. Haunert und A. Wolff

wird die Suche unter bestimmten Umständen und abhängig vom Zufall auch dann von s aus fortsetzt, wenn s schlechter als s ist. Damit soll vermieden werden, dass der Algorithmus in einem schlechten lokalen Optimum stecken bleibt. Die Wahrscheinlichkeit der Akzeptanz von s als neue aktuelle Lösung wird vom Ausmaß der Verschlechterung sowie einem Temperaturparamter T abhängig gemacht. Analog zur Metallverarbeitung wird T mit zunehmender Anzahl an Iterationen verringert. Dadurch nimmt im Lauf der Zeit die Wahrscheinlichkeit ab, dass Verschlechterungen akzeptiert werden. Der Algorithmus wird in der Regel nach einer vorgegebenen Anzahl an Iterationen terminiert. Michiels et al. [19] diskutieren theoretische Resultate zu Simulated Annealing und anderen lokalen Suchverfahren.

4.6

Approximationsalgorithmen

Auch wenn wir im letzten Abschnitt gezeigt haben, wie man durch geeignetes Nacharbeiten die Lösung einer Heuristik möglicherweise verbessert, bleibt die Frage, wie gut oder schlecht Algorithmus 5 eigentlich ist. Dazu wollen wir die Ausgabe unseres Algorithmus, der ja immer wieder willkürlich einen Kreis auswählt, mit einer optimalen Lösung vergleichen, und zwar für eine beliebige Instanz unseres Problems, also eine Menge von Einheitskreisen in der Ebene. Sei I eine solche Instanz, ALG(I ) die Lösung unseres Algorithmus, OPT(I ) eine optimale Lösung von I und ζ unsere Zielfunktion, die eine Lösung auf eine Zahl abbildet, nämlich die Anzahl der Kreise, aus der die Lösung besteht. Dann interessiert uns das Verhältnis ζ (ALG(I )) . ζ (OPT(I )) Natürlich wird dieses Verhältnis – eine Zahl zwischen 0 und 1 – von Instanz zu Instanz verschieden sein. Im besten Fall findet unsere Heuristik das Optimum, z. B. wenn alle Kreise disjunkt sind oder wenn sich alle Kreise paarweise schneiden. Für solche Instanzen ist das Verhältnis genau 1, ansonsten ist es echt kleiner 1. Wir wollen die Qualität eines Algorithmus durch eine einzige Zahl beschreiben. Um das zu erreichen, nehmen wir (wie bei der Laufzeitanalyse) wieder eine pessimistische Haltung ein und sagen, dass ein Algorithmus die Approximationsgüte (oder den Approximationsfaktor) γ hat, wenn für jede Instanz I unseres Problems gilt, dass ζ (ALG(I )) ≥ γ. ζ (OPT(I )) Wir sind am größtmöglichen Wert von γ interessiert, so dass die Aussage gerade noch zutrifft, also an einer möglichst großen unteren Schranke für das Verhältnis ζ (ALG(I )) ζ (OPT(I )).

8 Räumliche Analyse durch kombinatorische Optimierung

a

219

b

c

Abb. 15 Dichte Kreispackung (a) und fünf paarweise disjunkte Einheitskreise, die jeweils einen sechsten Einheitskreis schneiden (b)

Gibt es für unser konkretes Restaurantketten-Problem eine solche Schranke oder kann das Verhältnis für eine Folge „gemein“ gewählter Instanzen beliebig schlecht werden? Dazu betrachten wir eine beliebige Instanz I und vergleichen eine feste optimale Lösung OPT(I ) mit der Lösung ALG(I ) unserer Heuristik – das ist die Menge C , die Algorithmus 5 schließlich zurückgibt. Jedes Mal, wenn unsere Heuristik einen Kreis c auswählt, gibt es zwei Möglichkeiten. Entweder c liegt auch in der optimalen Lösung; dann haben wir in diesem Schritt alles richtig gemacht. Oder c ist nicht in der optimalen Lösung; dann interessiert uns, wie viele Kreise in OPT(I ) durch unsere Entscheidung für c „blockiert“ werden. Man beachte, dass es mindestens einen Kreis in OPT(I ) geben muss, der c schneidet (sonst könnten wir OPT(I ) durch c erweitern, was der Optimalität von OPT(I ) widersprechen würde). Insgesamt sind die von c blockierten Kreise eine Teilmenge der Kreise, die in der foreach-Schleife von Algorithmus 5 aus der verbliebenen Kandidatenmenge C entfernt werden, weil sie c schneiden. Die Frage ist also: Wie viele Kreise können gleichzeitig c schneiden und untereinander paarweise disjunkt sein – da sie ja zur optimalen Lösung OPT(I ) gehören. Ausgehend von einer dichten Kreispackung (siehe Abb. 15a) macht man sich klar, dass es maximal fünf Kreise gibt, die einerseits alle c schneiden und andererseits paarweise disjunkt sind (wie in dem Beispiel in Abb. 15b). Jeder Kreis in ALG(I ) „bezahlt“ also also für bis zu fünf Kreise in OPT(I ). Wichtig ist, dass wir damit alle Kreise in OPT(I ) bezahlt haben. Am Ende bleibt kein unbezahlter Kreis mehr übrig, denn ein solcher Kreis würde keinen Kreis der Heuristik schneiden und dann hätte unsere Heuristik ihn ebenfalls in ihre Lösung C gesteckt. Zur Erinnerung: bei unserem Problem gibt die Zielfunktion ζ die Kardinalität einer Lösung an. Es gilt also 5ζ (ALG(I )) = 5|ALG(I )| ≥ |OPT(I )| = ζ (OPT(I )). Diese Rechnung können wir für jede Instanz unseres Problems wiederholen; obige Ungleichung ist immer erfüllt. Also gilt für jede Instanz I

220

J.-H. Haunert und A. Wolff

ζ (ALG(I )) ≥ 1/5 . ζ (OPT(I )) Somit hat unsere Heuristik Approximationsgüte 1/5; sie wählt immer mindestens 1/5 mal so viele Kreise aus wie eine optimale Lösung enthält. Man kann die Heuristik leicht so implementieren, dass sie eine Menge von n Kreisen in O(n2 ) Zeit und O(n) Speicher verarbeitet. Was weiß man noch über die Approximierbarkeit unseres Restaurantauswahlproblems? Vor kurzem haben Das et al. [7] einen Approximationsalgorithmus mit Güte 1/2 angegeben, der in O(n3 ) Zeit läuft und O(n2 ) Speicherplatz benötigt. Außerdem haben sie ein sogenanntes Polynomialzeit-Approximationsschema (engl. polynomial-time approximation scheme, kurz PTAS) angegeben. Das ist im Allgemeinen eine Schar von Approximationsalgorithmen (Ak )k∈N , wobei Ak ein Approximationsalgorithmus mit Güte (1 − 1/k) ist. Das heißt, man kommt beliebig nah an eine exakte Lösung heran, indem man k entsprechend groß wählt, bezahlt aber dafür mit einer Laufzeit, deren Exponent üblicherweise mit k wächst. Daher liefert ein PTAS im Allgemeinen keine praktisch einsetzbaren Algorithmen, aber die Antwort auf eine wichtige theoretische Frage: wie gut lässt sich ein gegebenes Problem approximieren? (Es gibt durchaus Optimierungsprobleme, die gar keine Approximation zulassen – davon ist gleich im nächsten Absatz die Rede – aber es gibt auch Probleme, von denen man weiß, dass es einen Approximationsalgorithmus mit Güte 1/2 gibt, aber keinen, dessen Güte auch nur ein Haar besser wäre.) Das PTAS von Das et al. hat Güte 1/(1 + 1/k)2 (ein Ausdruck, den man mit entsprechend großem k beliebig nah an 1 bringen kann), Laufzeit k 4 nO(k log k) und Speicherplatzbedarf O(n + k log k). Bei Minimierungsproblemen (wie dem berühmten Problem des Handlungsreisenden oder Traveling Salesman Problem, kurz TSP) interessieren wir uns ebenfalls für das Verhältnis ζ (ALG(I )) , ζ (OPT(I )) das hier jedoch immer mindestens 1 ist. Also hätten wir gerne eine möglichst kleine obere Schranke γ für dieses Verhältnis. (Zum Beispiel hat der Algorithmus von Christofides [3] für das metrische TSP, einen Spezialfall von TSP, eine Güte von 3/2, während es für das allgemeine TSP NP-schwer ist, irgendeinen Approximationsalgorithmus anzugeben.) In beiden Fällen – bei Minimierungs- und Maximierungsproblemen – geht es darum, Approximationsalgorithmen mit einer Güte möglichst nahe 1 zu finden; eine Güte von 1 haben gerade die exakten Algorithmen. Zusammenfassend lässt sich zu Approximationsalgorithmen sagen, dass es oft schwer bis unmöglich ist eine bestimmte Güte zu beweisen, besonders bei echten Problemen mit vielen Randbedingungen. Außerdem ist die Güte, die man beweisen kann, das Ergebnis einer sehr pessimistischen Haltung; auf realen Daten sind die meisten Approximationsalgorithmen deutlich besser als ihre Güte vermuten lässt.

8 Räumliche Analyse durch kombinatorische Optimierung

221

Trotzdem sind Gütegarantien wertvoll: sie gelten im Gegensatz zu experimentell gewonnenen Messdaten immer, für alle Eingaben. Vazirani [22] hat ein sehr schönes Lehrbuch über Approximationsalgorithmen geschrieben; Williamson und Shmoy [23] beschäftigen sich besonders mit Approximationsalgorithmen für Standortprobleme.

5

Fazit und Perspektive

Die kombinatorische Optimierung lässt sich vielfältig in der Geoinformatik anwenden – nicht nur auf Probleme der Standortanalyse. Beispielsweise erfordert die Integration verschiedener Geodatensätze oft eine automatische Objektzuordnung, die durch geometrische Abweichungen zwischen den Datensätzen erschwert wird. Durch Optimierung können Zuordnungen so gebildet werden, dass ein globales Fehlermaß minimiert wird [1]. Optimierung wurde auch zur automatischen Generalisierung angewendet, also zur Gewinnung einer Karte kleineren Maßstabs aus einer gegebenen Karte [13]. Dabei gilt es, einen guten Kompromiss zwischen der Bewahrung wichtiger Karteninhalte und der Übersichtlichkeit der Ausgabekarte zu finden. In der Regel bedeutet die Modellierung eines Problems die erste, vielleicht sogar die größte Hürde für einen Anwender. Welches Fehlermaß ist das richtige für eine bestimmte Zuordnungsaufgabe? Wie lassen sich die teilweise nur vage bekannten Kriterien der kartographischen Generalisierung mathematisch formalisieren und in eine einzige Problemdefinition fassen? Es kann nicht genug betont werden, dass die sorgfältige Analyse und Beantwortung dieser Fragen von großem Wert ist, denn ist eine mathematische Beschreibung eines Problems erst einmal geschaffen, so steht ein breites Spektrum algorithmischer Werkzeuge zur Lösung bereit. Oft werden heuristische Verfahren entworfen, nach dem Motto „Alles ist erlaubt, sofern es in der Praxis schnell ist und gute Lösungen liefert.“ Gegen eine gute Heuristik ist nichts einzuwenden, doch zunächst sollte die Möglichkeit eines exakten effizienten Algorithmus in Betracht gezogen werden. Auch wenn die abschließende Entscheidung oft nicht zugunsten eines exakten Algorithmus ausfällt, so gibt es wichtige Gründe, einen exakten Ansatz (z. B. durch ganzzahlige Programmierung) zu versuchen. So lassen sich zumindest für kleine Instanzen optimale Lösungen berechnen. Diese haben zweierlei Wert: Erstens können sie mit Lösungen einer Heuristik verglichen werden – z. B. wäre es interessant zu erfahren, dass eine Heuristik in der Regel nur 5 % vom Optimum abweicht. Zweitens kann ein Modell für ein Problem anhand optimaler Lösungen verifiziert werden: Eine optimale Lösung, die nicht den Ansprüchen eines Anwenders genügt, deutet zweifelsfrei auf ein unzureichendes Modell hin – zum Beispiel wurde ein wichtiges Kriterium in der Problemdefinition vergessen. Nicht zuletzt da sich ganzzahlige Programme mit heutigen Problemlösern ohne großen Programmieraufwand lösen lassen, messen wir der exakten Optimierung eine hohe Relevanz sowie Potenzial für zukünftige algorithmische Entwicklungen in der Geoinformatik zu.

222

J.-H. Haunert und A. Wolff

Literatur 1. Alt, H., Efrat, A., Rote, G., Wenk, C.: Matching planar maps. J. Algorithms 49(2), 262–283 (2003). https://doi.org/10.1016/S0196-6774(03)00085-3 2. Breu, H., Kirkpatrick, D.G.: Unit disk graph recognition is NP-hard. Comput. Geom. Theory Appl. 9(1–2), 3–24 (1998). https://doi.org/10.1016/S0925-7721(97)00014-X 3. Christofides, N.: Worst-case analysis of a new heuristic for the travelling salesman problem. Techn. Ber. 388, Graduate School of Industrial Administration, Carnegie Mellon University (1976) 4. Clark, B.N., Colbourn C.J., Johnson D.S.: Unit disk graphs. Discret. Math. 86(1–3), 165–177 (1990). https://doi.org/10.1016/0012-365X(90)90358-O 5. Cormen, T.H., Leiserson, C.E., Rivest, R.L., Stein, C.: Algorithmen – Eine Einführung, 4. Aufl. Oldenbourg, München (2013) 6. Dantzig, G.B.: Linear Programming and Extensions. Princeton University Press, Princeton (1963) 7. Das, G.K., De, M., Kolay, S., Nandy, S.C., Sur-Kolay, S.: Approximation algorithms for maximum independent set of a unit disk graph. Inform. Process. Lett. 115(3), 439–446 (2015). https://doi.org/10.1016/j.ipl.2014.11.002 8. de Berg, M., Cheong, O., van Kreveld, M., Overmars, M.: Computational Geometry: Algorithms and Applications, 3. Aufl. Springer, Berlin (2008). https://doi.org/10.1007/978-3-54077974-2 9. Fowler, R.J., Paterson, M.S., Tanimoto, S.L.: Optimal packing and covering in the plane are NP-complete. Inform. Process. Lett. 12(3), 133–137 (1981). https://doi.org/10.1016/00200190(81)90111-3 10. Garey, M.R., Johnson, D.S.: Computers and Intractability; A Guide to the Theory of NPCompleteness. W.H. Freeman & Co., San Francisco (1990) 11. Gomory, R.E.: Outline of an algorithm for integer solutions to linear programs. Bull. Am. Math. Soc. 64, 275–278 (1958). https://doi.org/10.1007/978-3-540-68279-0_4 12. Haunert, J.H., Wolff, A.: Optimal simplification of building ground plans. In: Proceedings of 21st Congress International Society Photogrammetry Remote Sensing (ISPRS’08), Technical Commision II/3. International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Bd. XXXVII, Part B2, S. 373–378, Beijing (2008). http://www.isprs. org/proceedings/XXXVII/congress/2_pdf/3_WG-II-3/01.pdf 13. Haunert, J.H., Wolff, A.: Area aggregation in map generalisation by mixed-integer programming. Int. J. Geogr. Inform. Sci. 24(12), 1871–1897 (2010). https://doi.org/10.1080/ 13658810903401008 14. Hsiao, J.Y., Tang, C.Y., Chang, R.S.: An efficient algorithm for finding a maximum weight 2-independent set on interval graphs. Inform. Process. Lett. 43(5), 229–235 (1992). https:// doi.org/10.1016/0020-0190(92)90216-I 15. Karmarkar, N.: A new polynomial-time algorithm for linear programming. Combinatorica 4(4), 373–395 (1984). https://doi.org/10.1007/BF02579150 16. Kirkpatrick, S., Gelatt Jr., C.D., Vecchi, M.P.: Optimization by simulated annealing. Science 220(4598), 671–680 (1983). https://doi.org/10.2307/1690046 17. Krumke, S.O., Noltemeier, H.: Graphentheoretische Konzepte und Algorithmen, 3. Aufl. Vieweg+Teubner (2012). https://doi.org/10.1007/978-3-8348-2264-2 18. Lichtenstein, D.: Planar formulae and their uses. SIAM J. Comput. 11(2), 329–343 (1982). https://doi.org/10.1137/0211025 19. Michiels, W., Aarts, E., Korst, J.: Theoretical Aspects of Local Search. Springer, Berlin/New York (2007). https://doi.org/10.1007/978-3-540-35854-1 20. Niemeier, W.: Ausgleichungsrechnung, 2. Aufl. De Gruyter, Berlin (2008) 21. Papadimitriou, C.H., Steiglitz, K.: Combinatorial Optimization: Algorithms and Complexity. Dover, Mineola (1998)

8 Räumliche Analyse durch kombinatorische Optimierung

223

22. Vazirani, V.V.: Approximation Algorithms. Springer, Berlin (2001). https://doi.org/10.1007/ 978-3-662-04565-7 23. Williamson, D.P., Shmoys, D.B.: The Design of Approximation Algorithms. Cambridge University Press, Cambridge/New York (2011) 24. Wolff, A.: Graph drawing and cartography. In: Tamassia, R. (Hrsg.) Handbook of Graph Drawing and Visualization, Kap. 23, S. 697–736. CRC Press, Boca Raton (2013)

9

Räumliches Data-Mining und Big Geospatial Data Liqiu Meng

Inhalt 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Akteure der raumzeitlichen Datenerfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Big Data und Big Geodata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Eigenschaften der Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Offenheit der Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Einfluss der Big Geodata auf das Alltagsleben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Raumzeitliches Data-Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Exemplarische Forschungs- und Entwicklungsergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Geodaten-Matching . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Event-Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Verhaltensinterpretation anhand GPS-Trajektorien . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Schlussbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

226 226 227 228 229 230 231 234 234 237 240 245 245

Zusammenfassung

Im Zusammenhang mit der flächendeckenden Digitalisierung der Erdoberfläche geht dieses Kapitel auf die Eigenschaften der Big Data und die damit verbundenen wissenschaftlichen Herausforderungen für das Data-Mining ein. Die Rolle des raumzeitlichen Data-Mining für die Handhabung mit dem BigData-Ökosystem wird hervorgehoben. Einige exemplarische Forschungs- und Entwicklungsergebnisse entlang des Wertschöpfungsprozesses von Geodaten-

Liqiu Meng () Lehrstuhl für Kartographie, TU München, München, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1_70

225

226

L. Meng

Matching, Event-Mining bis hin zur Verhaltensinterpretation anhand der GPSTrajektorien werden vorgestellt Schlüsselwörter

User Generated Content · Volunteered Geographic Information · OpenStreetMap · Big Data · Geodaten-Matching · Event-Mining · Verhaltensinterpretation · GPS-Trajektorien

1

Einleitung

Unser Leben wird zunehmend digital gestaltet. Noch nie zuvor wurden die Erdoberfläche und Spuren von Lebewesen durch das Geosensornetz aus umfangreichen terrestrischen Messverfahren und Fernerkundungsverfahren so schnell, intensiv, genau, vielschichtig und vielfältig abgetastet wie heute Jede Version der erfassten Welt enthält die Basisinformationen über die geometrischen, radiometrischen und dynamischen Eigenschaften einer neu entdeckten Erde. Parallel zu High-EndGeosensornetzen ist ein Low-End-Geosensornetz aus den preisgünstigen mobilen Geräten herangewachsen. Anders als die maschinelle Ermittlung der objektiven, parametrisierbaren und strukturierten Messdaten, nimmt der Mensch sein Ambiente eher nach eigenem Interesse wahr. Er beobachtet mit eigenen Sinnesorganen, gestärkt durch die leicht tragbaren Sensoren, wie Kamera, Kompass oder GPSEmpfänger, ausgewählte Standorte spontan, sporadisch, aber fokussiert und kontextbewusst. Daraus entstehen emotionsgeladene Erlebnisberichte über „hier und jetzt“ sowie die Eindrücke über Beleuchtung, Wetterlage, Geruch, Geschmack, Geräusch, Gestik, Gemütslage und weitere spürbare Dinge, die sonst weder abbildbar noch messbar sind [11].

1.1

Akteure der raumzeitlichen Datenerfassung

Die Teilnehmer an der Digitalisierung der realen Welt waren zunächst die öffentlichen Behörden und die kommerziellen Unternehmen, sind aber zunehmend einzelne private Personen. • Öffentliche Behörden, wie Vermessungsämter und diverse Fachämter haben die hoheitliche Aufgabe zur systematischen Erfassung, Fortführung und Verbreitung der raumbezogenen Basis und Fachdaten. Ihre Tätigkeit folgt den vordefinierten Qualitätsstandards und findet im Rahmen einer vereinbarten Geodateninfrastruktur statt. Ihre Daten werden in der Regel als zuverlässig, autoritär, urheberrechtlich geschützt, anwendungsneutral und interoperabel bewertet. • Kommerzielle Unternehmen stellen ihre Geodaten in eigenen Datenformaten und nach dem wettbewerblichen Handlungsgrundsatz zur Verfügung. Sie greifen oft auf die bestehenden amtlichen Geodaten zu und reichern diese Basisdaten mit eigenen Erdbeobachtungsdaten und Betriebsdaten sowohl geometrisch als auch semantisch marktgerecht an. Zu den Betriebsdaten zählen

9 Räumliches Data-Mining und Big Geospatial Data

227

z. B. die räumliche Verteilung der Niederlassungen, die Service-Reichweite, die durch Überwachungs- oder Feedbacksysteme registrierten Kundendaten usw. Diese letztere Datensammlungsart wird auch als kontrollierte Crowd-Sourcing (Schwarmauslagerung) bezeichnet. • Private Personen stellen ihre Informationen als User Generated Content (UGC – Nutzergenerierte Inhalte) oder Volunteered Geographic Information (VGI – freiwillige Geoinformationen) in Form von Blogs oder Geotags im Internet für andere Mitmenschen zur freien Verfügung. UGC/VGI folgen keinen einheitlichen Qualitätskriterien. Sie sind entweder nach offenen Standards formatiert oder verbleiben als semistrukturierte oder unstrukturierte Fragmente. Das unentgeltliche und unkontrollierte Crowd-Sourcing ist etwas unberechenbar, inhaltlich wenig objektiv und ethisch wenig verantwortlich. Es verfügt aber über eine selbstheilende Eigenschaft nach dem Motto „Mehr Augen helfen zur gegenseitigen Entdeckung und Korrektur der Fehler“ Die „just-in-time“Natur der UGC/VGI kann die Frustration „Informationen sind dort am wenigstens vorhanden wo sie am dringlichsten benötigt werden“ einigermaßen lindern und stellt daher eine sinnvolle Ergänzung zu öffentlichen und kommerziellen Daten dar. Im Bereich Katastrophenmanagement, spielen UGC/VGI wegen ihrer radikalen Offenheit und Flexibilität und ihrer ortsbezogenen Intelligenz eine unverzichtbare Rolle für den effizienten Rettungsdienst. Im allgegenwärtigen Internet als Austauschportal für alle ein- und ausgehenden Datenströme, der sozialen Medien und der Open-Source Software sind viele bürgerinitiierte wissensbasierte Projekte für diverse Zwecke entstanden. Das seit 2004 laufende Projekt OpenStreetMap (OSM) ist eine der am häufigsten besuchten VGI-Plattformen. Sie erlaubt ihren Beitragenden 1) die sofortige Editierung der Karten und eine häufige Fortführung der entsprechenden Softwarefunktionen, 2) die Eingabe der Geodaten von GPS-fähigen Geräten, Smartphones und anderen digitalen kartographischen Werkzeugen, 3) den Zugriff auf die kartographischen Aktivitäten in OSM, und 4) die Zusammenarbeit mit anderen OSM-Beitragenden durch unterschiedliche Kommunikationskanäle. Gegen Ende 2014 hat die OSM bereits ca.1.85 Mio registrierte Nutzer und Beitragende [1, 13]. Aus der konkurrierenden und kollaborierenden Massenbeteiligung an der Digitalisierung ergeben sich hyperdynamisch akkumulierende Geodatenströme. Die einzige reale Welt entfaltet sich dadurch in unzähligen digitalen Modellen, deren Speicherung, Aktualisierung und Interpretation mittlerweile die leistungsfähigsten Computeranlagen überfordert haben.

2

Big Data und Big Geodata

In den Massenmedien werden Daten, die wegen ihrer ungewöhnlich großen Menge, ihres ungewöhnlich schnellen Erzeugungstempos sowie ihrer außerordentlichen Vielfalt weder mit klassischen Dateninfrastrukturen zu bewältigen noch mit klassischen Verarbeitungsmethoden auszuwerten sind, unter dem Schlagwort „Big Data“ subsumiert (vgl. http://de.wikipedia.org/wiki/Big_Data, zugegriffen am:

228

L. Meng

15.04.2015). Mit der Entstehung von „Big Data“ beginnt das Zeitalter eines offenen Datenökosystems, dessen Management ein „Big Mind“ erfordert, um einerseits das Zusammenwirken der menschlichen Intelligenz und der künstlichen Intelligenz zu optimieren und andererseits von der engen Zusammenarbeit zwischen Wissenschaft und Gesellschaft zu profitieren.

2.1

Eigenschaften der Big Data

Wie oben erwähnt sind Big Data von drei Haupteigenschaften, nämlich „big“, schnell und heterogen geprägt. • Big ist Auslöser von Big Data. Man darf „big“ aber weder mit „gut“ noch mit „ganz“ gleichsetzen. Big Data sind nämlich sowohl redundant als auch lückenhaft. Meldungen in sozialen Medien erweisen sich im offenen Web oftmals als Datenschleudern, im Unternehmen als Kommunikationsmotoren, wobei sie hier wie dort zur Informationsüberflutung beitragen (wirtschaftslexikon.gabler.de/Definition/socialmedia.html, zugegriffen am 15.04.2015). Auf der anderen Seite gibt es „vergessene“ Orte, die über kaum andere Informationen als ihre geographischen Koordinaten verfügen. Nichtsdestotrotz verbirgt sich in der großen Datenmenge ein größeres Nutzungspotential als je zuvor, mit höheren Wahrscheinlichkeiten nicht nur bekanntes Wissen aus umfangreicheren Stichproben zu validieren, sondern neues Wissen, insbesondere die wirtschaftlich, gesellschaftlich, und/oder rechtlich relevanten Kausalitätsrelationen in den Massendaten zu entdecken. • Big Data sind keine statischen Daten, sondern dynamische Datenströme, die nicht wie Flüsse in einen großen Ozean münden, sondern sich netzwerkartig in allen Richtungen entfalten. Ein sensationelles Ereignis bzw. ein Hotspot z. B. wird nach seiner ersten Bekanntmachung mit kaum spürbarem Zeitverzug in sozialen Medien verbreitet. Die Untersuchungen von [2] haben gezeigt, dass eine digitale Nachricht nicht nur ihre direkte Zielgruppe, sondern auch die Bekannten und Bekannten von Bekannten der Zielgruppe beeinflusst. Je stärker die zwischenmenschliche Beziehung, desto schneller und stärker wird eine ursprüngliche Nachricht durch die klickende Masse propagiert. Zur Verarbeitung der Big Data genügt es nicht, lediglich die Rechen- und Speicherkapazität einer Computeranlage zu erhöhen. Vielmehr sollen diverse Computeranlagen durch intelligente Verbindungen die Aufgaben um Big Data gemeinsam übernehmen und gegenseitig unterstützen, um das inkrementelle und parallele Computing in einer sicheren Umgebung zu ermöglichen. • Big Data sind heterogen hinsichtlich der Quellen, Dimensionen, Kodierungsformate, Übertragungskanäle und Auflösungen. Die Vielfalt stellt eine Voraussetzung für die Vitalität des Datenökosystems dar, sie erschwert zugleich die flächendeckende Qualitätssicherung. Zur Zeit gibt es noch kein effektives und effizientes Datenmodell zur Handhabung unstrukturierter Datenquellen in sozialen Medien. Die naturwissenschaftlich messbaren Kenngrößen zur Be-

9 Räumliches Data-Mining und Big Geospatial Data

229

schreibung raumzeitlicher Objekte und deren Beziehungen in einem physischen Netzwerk sind nicht übertragbar auf ein soziales Netzwerk aus Mensch-MenschBeziehungen und Mensch-Sache-Beziehungen. Zwei Geotags mit Erlebnisberichten z. B. lassen sich verlinken auch wenn sie keine Gemeinsamkeit teilen. Umgekehrt ist die Kommunikationsintensität zwischen zwei Menschen in einem sozialen Netzwerk nicht unbedingt mit ihrer Beziehungsstärke korreliert. Vor diesem Hintergrund ist eine interdisziplinäre Kooperation zwischen Naturwissenschaftlern und Sozialwissenschaftlern zum gemeinsamen Management des Big Datasystems unabdingbar. Die Welt ist in ihrer digitalen Version zwangsläufig diskretisiert. Jedes raumzeitliche Geoobjekt, ob punkt-, linien- oder flächenförmig, wird in der Datenbank als ein Tupel aus Objektidentität und einer bestimmten Anzahl von beobachtbaren Merkmalswerten repräsentiert. In einer relationalen Datenbank werden die einzelnen Tupel tabellarisch abgespeichert und als Relationen bezeichnet. Weitere semantische Beziehungen der Geoobjekte zueinander sind in der Tabelle aber weder definiert noch erfasst. Die größte, zugleich auch die spannendste Herausforderung zur Verarbeitung der Big Data besteht daher in der Modellierung der semantischen Wechselwirkungen zwischen den Dateneinträgen aus diversen Quellen. Eine Grundvoraussetzung hierfür ist, dass nicht wie in der Vergangenheit ausschließlich Einzeldaten separat betrachtet werden, sondern die Gesamtheit der vorliegenden Datenbestände berücksichtigt wird [12]. Denn der Mehrwert der Big Data liegt in erster Linie nicht in den einzelnen Dateneinträgen, sondern in deren Beziehungen.

2.2

Offenheit der Big Data

Die Entstehung von Big Data ist dem offenen Internetportal zu verdanken. Die Offenheit ist jedoch ein doppelseitiges Schwert. Auf der einen Seite können die etwaigen Fehler durch die Massenbeteiligung aufgedeckt und korrigiert werden. Auf der anderen Seite könnten die Nachrichten und die digitalen Fußstapfen der individuellen Personen durch Manipulation und Verfälschung zu den Komplotttheorien und digitalen Schatten führen, die mit ihrem hartnäckigen Beigeschmack die Wissenschaft beschädigen und die Grundrechte der Menschen verletzen könnten und Big Data ethisch fraglich machen. Die Offenheit fördert auf der einen Seite die nachhaltige Datengenerierung. An der Stelle, wo diejenigen Institutionen oder Freiwilligen kein Interesse mehr haben oder inaktiv geworden sind, springen neue Beitragende ein, somit werden die Datenströme kontinuierlich generiert und gepflegt. Auf der anderen Seite sind gegenwärtige Big Data aber nur ungleichmäßig zugänglich. Unterschiedliche Länder oder Regionen befinden sich in unterschiedlichen Entwicklungsphasen und verfügen im Zusammenhang mit anderen sozialpolitischen Faktoren über unterschiedliche IT-Infrastrukturen, die einen flächendeckenden Zugang zum Internet und zu anderen Telekommunikationsnetzwerken nicht gestatten. Dies führt

230

L. Meng

zwangsläufig zu einer digitalen Spaltung auf einer Makroebene (vgl. http://de. wikipedia.org/wiki/Digitale_Kluft, zugegriffen am 20.05.2015). Unter den Bürgern mit leichtem Zugang zu IT-Infrastrukturen bestehen weitere digitale Spaltungen auf einer Mikroebene, die durch Faktoren wie Motivation, Ausbildungsniveau, Computerkenntnisse, Zeitbudget usw. bedingt sind. Daher ist es nicht verwunderlich, dass einige wenige Freiwillige eine große Portion der UGC/VGI liefern, während die meisten anderen entweder nur einmalig oder sporadisch etwas dazu beigetragen haben [3]. Außerdem gibt es Datenmonopole, die wegen Datenschutzproblematik und Wettbewerbszwang nicht bereit sind, ihre qualitätsgesicherten Datenbestände zu öffnen. Die digitalen Spaltungen beschränken die Repräsentativität und die Zuverlässigkeit von Big Data und könnten dazu führen, dass das verborgene Wissen in Big Data auch verzerrt sein könnte [9]. Die Schatteneffekte der Offenheit lassen sich paradoxerweise am besten mit der Offenheit überwinden. Wissenschaftler sind dafür verpflichtet, ein offenes Portal im Hinblick auf seine Selbstheilungsfunktion als ein Gegenmittel gegen den Datenmissbrauch zu gestalten. Das offene Portal bietet einen guten Ausgangspunkt, um die gegensätzlichen Dateneinträge und Meinungen für offene Überprüfung und Bewertung durch die Partizipation der Gesellschaft unterzubringen. Jeder darf dazu stoßen und mitreden. Längerfristig werden die digitalen Spaltungen schrumpfen. Nach der häufig zitierten These, dass mindestens 80 % aller Daten einen Raumbezug aufweisen, bilden dann Big Geodata den Hauptbestandteil der Big Data und spielen daher eine zentrale Rolle zur Gestaltung des Big-Data-Ökosystems.

2.3

Einfluss der Big Geodata auf das Alltagsleben

Big Data und vor allem Big Geodata haben unser Leben auf gesellschaftlicher, wirtschaftlicher, politischer Ebene verändert. Allein mit einem Handy kann man rund um die Uhr Meldungen aus aller Welt empfangen, somit in Echtzeit informiert bleiben. Der Bedarf an Information ist ein Überlebensinstinkt. Nicht Bescheid zu wissen macht uns unbehaglich als würden wir etwas Wichtiges verpassen und unseren Wettbewerbsvorteil verlieren. Bereits vor dem digitalen Zeitalter neigten die Reisenden dazu, gedruckte Stadtpläne von ihrem Zielort mitzunehmen. Hierfür spielt unser Urvertrauen in den Karten als Informationsquelle bzw. Beruhigungsmittel in Paniksituationen eine Rolle. Heutzutage sind ortsbezogene Daten und Kartendienste als Cloud-Lösung jederzeit abrufbar, die unser Sicherheitsgefühl stärken und unsere Entscheidungen unterstützen können. Der beinahe synchronisierte Umgang mit der digitalen Welt und der realen Welt ist anstrengend. Wir sind täglich mit dem Zwang konfrontiert, einen beträchtlichen Teil unserer Zeit zur Abwägung zwischen zwei oder mehreren Alternativen zu investieren. Komplexe raumzeitliche Angelegenheiten erfordern informierte Entscheidungen. Dazu kommt nicht nur die Intuition, sondern auch das logische Denken ins Spiel. Das letztere erfordert wiederum nicht nur das verinnerlichte Wissen im Gedächtnis, sondern auch zusätzliche Daten, aus denen neue Kenntnisse

9 Räumliches Data-Mining und Big Geospatial Data

231

abgeleitet werden können. Man geht davon aus, dass die datengetriebene Entscheidung den toten Winkel überwinden und die Objektivität erhöhen kann. Man hat zwar nicht mehr die Sorge, keine Verbindungen zur Außenwelt zu haben, ist aber vom Problem geplagt, sich von den Verbindungen nicht trennen zu können. Obwohl die uns täglich erreichte Datenmenge unsere Gedächtnis- und Verarbeitungskapazität längst überschritten hat, haben wir immer noch das Gefühl, dass wir nicht ausreichend informiert sind. Je mehr Daten wir erhalten, desto datendurstiger sind wir. Die ständig eintreffenden Dataströme lenken unsere Aufmerksamkeit so konsequent auf die virtuelle Welt, dass wir nur noch geistesabwesend unsere reale Welt erleben und zunehmend unter der Entscheidungsmüdigkeit leiden. Es besteht daher ein akuter Bedarf an effizienten raumzeitlichen Data-MiningVerfahren, um dieses Luxusproblem im datenreichen Lebensumfeld in den Griff zu bekommen.

3

Raumzeitliches Data-Mining

In der global vernetzten digitalen Welt als hypothetisches Modell der Realität sind wir auf zwei Wissenstypen angewiesen: das eingeworbene Wissen über die raumzeitlichen und semantischen Eigenschaften der einzelnen Geoobjekte und deren Beziehungen zueinander, sowie das noch unbekannte Wissen über die weiteren Eigenschaften dieser Objekte und deren weiteren Zusammenhänge. Dieses unbekannte Wissen zu offenbaren ist die Aufgabe des Data-Mining. Unter räumzeitlichem Data-Mining im engeren Sinne versteht man die Suche nach verborgenen Mustern in Datenbeständen mit raumzeitlichem Bezug. Der Hypothesenraum besteht aus dem Merkmalsraum, welcher die Identität und Bedeutungen einzelner Geoobjekte und deren Beziehungen zueinander definiert, und der Raumzeit, welche die Lage, die Ausdehnung und die Nachbarschaft dieser Geoobjekte definiert. Die Einbeziehung der Raumzeit macht das Data-Mining viel komplexer als im nicht-raumzeitlichen Kontext. Dies betrifft nicht nur die technischen Aspekte, wie z. B. die Leistungsfähigkeit der Suchmethoden im Hypothesenraum, sondern auch die methodischen Aspekte, wie z. B. Verfahren zur Entdeckung semantischer Assoziationen zwischen Geoobjekten, auch wenn sie raumzeitlich nicht benachbart sind [17]. Beim raumzeitlichen Data-Mining hat man typischerweise die Aufgaben: • die zu einem Muster gehörenden Geoobjekte vor ihrem Hintergrund hervorzuheben, • die zur Musterbildung wesentlich beitragenden Merkmale zu identifizieren, • den dynamischen Trend auf der Basis der Merkmalswerteverteilung vorauszusagen, • die gefundenen Muster zu validieren, und • die Wechselwirkungen zwischen dem Merkmalsraum und der Raumzeit zu entdecken.

232

L. Meng

Schließlich sollen die Ergebnisse in einer verständlichen Form dargestellt werden, um die raumzeitlichen Anfragen und eine weitere visuelle Exploration zu unterstützen. Methodisch gesehen sind grundsätzlich zwei Hauptansätze des räumlichen DataMining voneinander zu unterscheiden, nämlich die überwachte Wissensinduktion und die unüberwachte Wissensabduktion. Die überwachte Wissensinduktion setzt das Vorhandensein von Hintergrundwissen voraus, d. h. Konzepthierarchien, die Objektbestandteile und deren Abstraktionsstufen zum Inhalt haben, sind bereits bekannt. Die Einbeziehung des Hintergrundwissens verschiebt das Problem von einem Programmierer zum Wissensingenieur, der das Expertenwissen erfassen und kodieren muss [8]. Die Bearbeitungsreihenfolge, also zunächst räumliche Induktion dann merkmalbasierte Induktion, oder zunächst merkmalbasierte Induktion dann räumliche Induktion, macht hinsichtlich des Rechenaufwands keinen Unterschied. Ein auf die induktiven Lernmethoden konzentrierter Data-Mining-Ansatz unterstützt in der Regel die Bestätigung einer Hypothese oder des bereits als „gesunder Menschenverstand“ eingestuften Wissens. Bei einer unüberwachten Wissensabduktion steht weder eine Hypothese noch Hintergrundwissen zur Verfügung. Daher hat die Wissensabduktion die Aufgabe, aus Beobachtungen eine Hypothese abzuleiten, um eine Konsequenz am besten zu erklären bzw. die bestmögliche Ursache für die Folge zu finden. Hypothesen lassen sich entweder durch Training mit Beispielen oder durch Entdeckung von Clustern herauskristallisieren. Das maschinelle Lernen erfolgt entweder nach dem black-box-Prinzip (z. B. neuronale Netze, Bayessche Regression) oder aufgrund einer Regelbasis (z. B. Prädikatenlogik, Fuzzylogik). Nach dem black-box-Prinzip lässt sich ein Konzept relativ schnell finden und in einer impliziten Form darstellen, die allerdings für den Endnutzer nicht unmittelbar verständlich ist. Das regelgestützte Lernen dagegen hat das Ziel, leicht interpretierbare symbolische Wissensstrukturen zu bilden. Eine allgemeine Herausforderung für das Lernsystem besteht darin, dass es in der Lage sein soll, mit unvollständigen und sich widersprechenden Beispielen zu arbeiten. Im Gegensatz zum Training mit Beispielen ist die Clusterung ein selbstorganisierender Prozess Abgesehen von algorithmischen Unterschieden liegt allen Clusterungsmethoden ein Abstandsmaß bzw. Ähnlichkeitsmaß im euklidischen oder nicht-euklidischen Sinne zugrunde. Objekte, die zum selben Cluster gehören sind ähnlicher zueinander als die zu einem anderen Cluster. Sollte eine außergewöhnlich hohe Konzentration eines bestimmten Clusters auftreten als man aufgrund eines Vergleichs mit der räumlichen Zufallsverteilung erwarten würde, würde dieses Cluster als Anomalie erkannt. In der Regel wird eine Sensitivitätsanalyse durchgeführt, um sicherzustellen, dass die Anomalie nicht durch Zufall oder aufgrund von Datenfehlern verursacht ist [15]. Clustering lässt sich auch sehr gut mit der visuellen Explorationstechnik kombinieren. Die visuelle Exploration dient dem Zweck, eine bestimmte Anzahl k von Kandidatenmustern verschiedener Typen, die entweder als Standort für bestimmte Ereignisse (z. B. häufige Unfälle, Verkehrsstau) bekannt oder durch ihre außerge-

9 Räumliches Data-Mining und Big Geospatial Data

233

wöhnliche Gesetzmäßigkeit, Ausdehnung, Form oder Orientierung augenfällig sind, als Hypothesen grob zu lokalisieren (z. B. durch einen Umkreis oder ein Band je nach der Form des Musters). Die Größe und Form jedes Kandidatenmusters wird als Hinweis für dessen prototypische Ausdehnung abgespeichert. Neben dem allgemeinen Wahrnehmungsverhalten werden das Hintergrundwissen und die Erfahrungen des Betrachters teilweise implizit in den visuellen Explorationsprozess einbezogen. Die visuell wahrnehmbaren Muster können maschinell überprüft werden. Umgekehrt lassen sich die maschinell detektierten Muster visuell bestätigen. Diese iterative Wechselwirkung zwischen der visuellen Wahrnehmung und der maschinellen Analyse bei der Hypothesenerstellung und verifizierung (bzw. -widerlegung) führt zu einem reduzierten Suchraum, und damit wird ein komplexes Problem handhabbar. Die komplementäre Verstärkung der Computerfähigkeit durch die interaktive Visualisierung unterstützt auch sinnvollere Wissenskonstruktionen (vgl. auch Kap.  „GeoVisual Analytics“). So kann der Nutzer z. B. unter allen verifizierten raumzeitlichen Mustern die relevantesten für seine Problemstellung visuell identifizieren. Ungewöhnliche Muster oder Anomalien wie beispielsweise ein einmaliges Ereignis oder kleinflächige Verteilungen, die möglicherweise in analytischen Programmen als Rauschen weggefiltert werden, lassen sich mittels alternativer Visualisierungsformen deutlich sichtbar machen und erwecken dadurch die Aufmerksamkeit und den Scharfsinn des Nutzers. Das klassische Data-Mining wird als eine sequenzielle Wertschöpfungskette verstanden, entlang derer die Datenmenge sukzessiv reduziert und ihre Wertschätzung progressiv erhöht wird. Im Zusammenhang mit Big Data muss man allerdings damit rechnen, dass Datenströme jederzeit an beliebigen Stellen eintreffen, deshalb ist die Wertschöpfungskette kein geschlossener sequenzieller Prozess mehr, sondern ein offener Kreislauf, der auf die inkrementell wachsende Datenlage statt der zu einem bestimmten Zeitpunkt eingefrorenen Rohdaten reagiert und das Wissen dynamisch konstruiert. Es ist schwer, in den sich dynamisch entfaltenden Geodaten dauerhafte Anhaltspunkte zu entdecken. Diverse räumliche Muster können entstehen oder verschwinden, sich abspalten oder zusammenführen, am Standort bleiben oder bewegen [7]. Der Umfang und die dynamischen Eigenschaften vieler raumbezogener Probleme lassen sich allerdings auch mit großen und komplexen Datenströmen nicht adäquat für die automatische Prozessierung beschreiben, abgesehen davon, dass die erfassbaren Daten unvermeidbar mit Fehlern, Lücken, Rauschen und Unsicherheiten behaftet sind. Die Entwicklung von Mining-Verfahren von Big Data stecken noch in den Kinderschuhen. Prominent ist der MapReduce-Ansatz von Google Inc., der bei OpenSource-Software (Apache Hadoop und MongoDB) sowie bei einigen kommerziellen Produkten (Aster Data, Greenplum, u. a.) zum Einsatz kommt (Wikipedia.de, zugegriffen am: 01.04.2015). Fortschrittliche Visualisierungsformen können unter Berücksichtigung wahrnehmungspsychologischer Erkenntnisse dazu beitragen, Big Data visuell so aufzubereiten und darzustellen, dass diese sowohl zu Analyseals auch zu Präsentationszwecken entscheidungsunterstützend genutzt und in ihrer Komplexität beherrscht werden können [16].

234

L. Meng

Existierende Computersysteme sind trotz steigender Leistungsfähigkeit noch nicht in der Lage, die raumbezogenen Datenströme selbständig zu verstehen und daraus sinnvolle Schlussfolgerungen zu ziehen. Oft sind Systementwickler gezwungen, die Datenströme durch erhebliche Vereinfachung an die analytische Fähigkeit der Maschinen anzupassen. Daraus kann der Nutzer aber nur prototypische Lösungsvorschläge erwarten, die von der Realität noch weit entfernt sein können. Das raumzeitliche Big-Data-Mining wird durch folgende Herausforderungen charakterisiert: • Die Datenmenge ist sehr groß; dies betrifft sowohl die Anzahl der Geoobjekte als auch die Anzahl der objektbeschreibenden Merkmale; • Die raumzeitliche Ausdehnung der Muster variiert sehr stark; • Die gefundenen Muster sollen als statistisch signifikant verifizierbar sein; • Die dargestellten Muster sollen für die Nutzer in ihrem Kontext neu und sinnvoll sein; dies lässt sich z. B. durch das Maß „interestingness“ quantifizieren.

4

Exemplarische Forschungs- und Entwicklungsergebnisse

Um das Thema des „raumzeitlichen Data-Mining“ herum sind einige Forschungsarbeiten am Lehrstuhl für Kartographie (http://www.lfk.bgu.tum.de) entstanden. Sie werden in den folgenden Abschnitten vorgestellt.

4.1

Geodaten-Matching

Der Prozess des räumlichen Data-Mining ist im wesentlichen ein Wertschöpfungsprozess von Daten zu Wissen, der mit der Harmonisierung heterogener Datenquellen beginnt und zwar mit dem Ziel, Fehler, Rauschen, Redundanz und Lücken in den Ausgangsdaten zu reduzieren, die Dateninhalte entweder ineinander zu integrieren oder interoperabel zu machen. Die Matchingverfahren bilden den methodischen Kern zur Zusammenführung unterschiedlicher Datensätze Zhang [19] hat zur wechselseitigen Anreicherung von zwei geometrisch ähnlichen und semantisch komplementären Straßendatensätzen derselben Region das „Delimited Strokes”-Matchingverfahren entwickelt. Beim Delimited-Stroke (DS) handelt es sich um eine robuste Linienstruktur, die durch Verkettung der benachbarten und in die ähnliche Richtung weiterführenden Straßensegmente entsteht Jedes „DS“ ist durch seine Endknoten mit weiteren DSs verknüpft. Das Matchingverfahren beginnt mit der Suche für das längste DS in einem Straßennetz nach seinem Gegenüber im anderen Straßennetz und erweitert die Suche zu den angrenzenden DSs. Auf diese Weise wird ein Linienmatching zu einem Graphenmatching expandiert. Der Prozess wiederholt sich bis keine weiteren DSs unbearbeitet bleiben. Die durch das Matching identifizierten homologen Straßensegmente werden dann miteinander verlinkt, um vor allem die semantischen Informationen, die nur in einem Straßennetz vorliegen auf das andere Straßennetz zu übertragen. Das Verfahren

9 Räumliches Data-Mining und Big Geospatial Data

235

Abb. 1 Verlinkung (grün) der homologen DSs zwischen Tele Atlas (dunkelgrau) und NAVTEQ (rot) in Innenstadt München (ca. 50 km2 ) [19]

wurde mit Testdaten wie DLM-De TeleAtlas, Navteq und OSM in ganz Deutschland leistungsfähig umgesetzt. Abb. 1 demonstriert ein Beispiel zum Matching zwischen TeleAtlas und Navteq mit einer Matchingrate von 97,9 % [19]. Die Matchinggenauigkeit des DS-Verfahrens für Regionen mit komplexer Verkehrsinfrastruktur hängt stark von der topologischen Richtigkeit der Endknoten des jeweiligen DS ab. Um sicherzustellen, dass Endknoten der identifizierten Straßenpaare aus zwei unterschiedlichen Datensätzen tatsächlich die homologen Punkte sind haben [6] im Rahmen einer Kooperation mit BMW ein knotenbasiertes Verfahren zum Matching der Straßenkreuzungen aus verschiedenen Datenquellen entwickelt. Hierfür ist ein Knoten entweder ein Straßenende oder eine Straßenkreuzung. Die Autoren haben aus der Differenz zwischen Knotenvalenzen und der Differenz zwischen den Schnittwinkeln ein Ähnlichkeitsmaß Exact Angular Index (EAI) für Knoten abgeleitet. Der EAI kann allein oder in Kombination mit der euklidischen Distanz verwendet werden, um die homologen Knoten aus zwei Straßennetzen zu identifizieren. Im Vergleich zu drei in der Literatur am häufigsten berichteten Ähnlichkeitsmaßen – Euclidean distance Node valence und Spider Index, liefert das EAI-basierte Ähnlichkeitsmaß in ihren Experimenten eine konsistente und robustere Matchingleistung Ein exemplarischer Vergleich mit Datensätzen Basis-DLM und OSM für die Innenstadt München und den Vorortbezirk Moosach wird in Tab. 1 zusammengefasst. Zhang [18] hat in seiner Arbeit für das Matching zwischen einer Vektordatenbank und einem geo-referenzierten Rasterbild den „Sparse Matching Algorithm“ (SMA) entwickelt. Die Vektordatenbank besteht aus strukturierten und durch das DS-Verfahren semantisch angereicherten Straßenobjekten, während das Rasterbild die aktuellen, aber oft durch Schatten und andere Störungen unterbrochenen Linienfragmente beinhaltet. Abb. 2 zeigt ein Beispiel des Sparse-Matching. Der SMA wird

236

L. Meng

Tab. 1 Matchingleistungen nach unterschiedlichen Ähnlichkeitsmaßen (TP: True Positives, FP: False Positives, FN: False Negatives) [6]

Ähnlichkeitsmaß Euclidean distance Node valence Spider Index EAI EAI+Euclidean distance

Moosach (37 Ground-Truth-Paare) TP FP 26 (70 %) 15 34 (92 %) 7 33 (89 %) 8 33 (89 %) 8 32 (82 %) 9

FN 11 3 4 4 5

Innenstadt München (17 Ground-Truth-Paare) TP FP FN 11 (65 %) 5 6 14 (82 %) 1 3 10 (59 %) 6 7 12 (71 %) 3 5 15 (88 %) 1 2

100

200

300

400

500

600

700 100

200

300

400

500

600

700

800

900

Abb. 2 Sparse-Matching zwischen Straßenvektoren (blau) und ihren entsprechenden Straßenelementen in einem Orthophoto (grün) [18]

eingesetzt, um die zu einem Straßenobjekt gehörenden spärlichen Linienfragmente zusammenzuführen und daraus Hinweise auf die Änderungen des Straßennetzes abzuleiten. Eine Matchingrate von 70 % ist möglich für Vororte und ländliche Gebiete. Um verschiedene Wegenetze desselben Gebiets, die für verschiedene Verkehrsmodalitäten erfasst wurden, zusammenzuführen hat Liu [10] einen „Switch-Point“basierten Ansatz entwickelt. Ein Switch-Point steht für die Berührungsstelle von zwei oder mehreren Verkehrsmodalitäten, die jeweils durch ein eigenes Straßennetz zugänglich sind. Der Switch-Point ermöglicht den Fahrgästen, von einem

9 Räumliches Data-Mining und Big Geospatial Data

car entrance of the parking lot

car entrance of the parking lot

pedestrian exit of the parking lot

237

P

pedestrian exit of the parking lot

pedestrian exit of the parking lot

motorized road pedestrian way

P

parking lot for cars

Abb. 3 Ein Switch-Point zwischen Fußgängerweg und Autostraße

Verkehrsmittel zum anderen zu wechseln. In der realen Welt variiert ein SwitchPoint von einer einfachen Umsteigestelle, einer Gruppe von mehreren Umsteigestellen bis hin zu einer Drehscheibe mit einer komplexen Infrastruktur aus Parkhaus, Servicezentrum und weiteren Anlagen. Abb. 3 zeigt ein Beispiel für Switch-Point. Der durch Switch-Point zusammengeführte Datensatz erlaubt die Implementierung der multimodalen Routenplanung und Navigationsservices, und bewahrt gleichzeitig die Flexibilität zur Wiederzerlegung in mehrere monomodale Verkehrsnetze [20]. Die Andockung der Fußgängerwege aus DLM-De und der öffentlichen Verkehrslinien an die Fahrzeugnavigationsdatenbank aus Navteq für Stadt München wird in Abb. 4, 5 demonstriert.

4.2

Event-Mining

Die Verbreitung von frei und oft kostenlos zugänglichen Webdiensten wie z. B. OpenStreetMap (OSM) und Google MyMaps hat den freiwilligen Geodatenaustausch unter den Internetbenutzern erheblich erleichtert und die Erfassung von Events inspiriert. Bei Events handelt es sich um räumliche und/oder semantische Veränderungen der Geoobjekte, die eine bestimmte Signifikanz erreicht haben. Jedes Event lässt sich durch fünf Attribute über „was“ (Typ des Events), „wo“ (Lage), „wann“ (Zeitpunkt bzw. -fenster), „wie“ (Veränderungsmuster), „wer“ (involvierte Personen oder Objekte). Ein Event steht in verschiedenen Beziehungen (z. B. Korrelation, Kausalität) zu anderen Events.

238

L. Meng

Abb. 4 Verschmelzung der Fußgängerwege aus DLM-De (grau) mit Autostraßen aus NavTeq (braun) (Ausschnitt aus München) [19]

Abb. 5 Weitere Verschmelzung der Ergebnisse in Abb. 4 (schwarz) mit dem öffentlichen Verkehrsnetz in München (Trambahn – rot, S-Bahn – grün, U-Bahn – blau) [10]

Polous [14] haben die OSM-Dateninfrastruktur um die Zeitdimension erweitert und einen „JOSM Event Editor“ als PlugIn entwickelt. Mit diesem Editor dürfen die freiwilligen Benutzer Events in Form von Auszeichnern oder Geotags in eine lokale OSM-Event-Datenbank eintragen. Die eingetragenen Events lassen sich mit dem

9 Räumliches Data-Mining und Big Geospatial Data

239

OSM-Server regelmäßig synchronisieren. Neben dieser interaktiven Eventsammlung haben die Autoren auch einen WebCrawler gestaltet, um die in Webseiten eingebetteten Events automatisch zu extrahieren. Der WebCrawler arbeitet nach dem Prinzip des „Rough-Set“-Matchingverfahrens. Er identifiziert zunächst die „Auszeichner“ im Webtext, die den Beginn und das Ende der Event-bezogenen Informationen markieren, und wählt dann unter den dazwischen liegenden Auszeichnern die Textinformationen über ein Event aus. Die redundante Information wird in der Nachbearbeitung eliminiert. Kommt ein Event wiederholt vor, werden seine Wiederholungseigenschaften abgeleitet und in der OSM-Event-Datenbank mitgespeichert. Die Event-Datenbank wird schließlich mithilfe von einem Terminplanungsprogramm „Cron“ zu einem abfragefähigen Datenbankformat konvertiert und anhand der Web-Applikation „OpenEventMap“ visualisiert. In Abb. 6 wird die Relation zwischen einer Straße und zwei Events, die zu zwei unterschiedlichen Zeitpunkten an der Straße stattgefunden haben, veranschaulicht. Mit der OpenEventMap als Schnittstelle hat jeder Endnutzer einen freien Zugang zu den gesammelten Events. Er darf nicht nur nach bestimmten Events abfragen, sondern auch die dargestellten Events miteinander visuell vergleichen, um ihre versteckten Zusammenhänge zu entdecken. Dieses VGI-basierte System zur Event-Generierung und analyse wird in Form von einem ortsbezogenen Eventkalender für die Stadt München prototypisch umgesetzt. Zur Unterstützung weiterer Event-Generierung von mobilen Nutzern wird zur Zeit eine Android-Applikation für Smartphones und Tablets entwickelt.

Abb. 6 EventEditor in der JOSM-Umgebung [14]

240

4.3

L. Meng

Verhaltensinterpretation anhand GPS-Trajektorien

Zur Wissensgewinnung aus den durch GPS-fähige Taxis erfassten Verkehrsströmen haben [4] die allgemeinen Data-Mining-Algorithmen und Visualisierungsmethoden an die Taxitrajektorien angepasst und in ein visuell analytisches Prototypsystem integriert. Die interaktive Bedienung des Systems erlaubt dem Nutzer die in Taxitrajektorien verborgenen Muster zu identifizieren und diese mit Kontextinformationen in Verbindung zu setzen. Anhand eines großen Datensatzes mit GPS-Positionen von 2000 Taxis in Shanghai für die Samplingrate von 10 Sekunden und den Zeitraum zwischen 10. Mai und 30. Juni, 2010 haben die Autoren eine Reihe von DataMining-Aufgaben durchgeführt Die Testdaten sind in einer MongoDB gespeichert. Jeder GPS-Punkt lässt sich durch seine Koordinaten (Breite Länge und Zeitstempel) und einige weitere Attribute wie z. B. Fahrgeschwindigkeit, Taxi-Status (mit Fahrgast, ohne Fahrgast) beschreiben In Anbetracht des Taxi-Status im Zusammenhang mit der Fahrgeschwindigkeit kann man außerdem zwischen „Leerlauf“, „Steckenbleiben im Verkehrsstau und an der Straßenkreuzung“ und „Warten am Parkplatz“ unterscheiden. Die Summe der verbrachten Zeit im Verkehrsstau und für das Warten am Parkplatz bildet den Anteil des Stillstehens. In der kompakten Visualisierung über die Durchschnittsdauer des Stillstehens pro Viertelstunde als Aggregationseinheit in Abb. 7 sind die Muster über die Nachtruhe, die Mittagsruhe sowie die Hauptverkehrszeit sofort erkennbar. Ebenfalls ist die zeitliche Verschiebung dieser Muster am Wochenende bzw. Feiertag zu beobachten. Abb. 8 veranschaulicht die Trajektorien eines bestimmten Taxis bzw. Taxifahrers an einem bestimmten Tag Aus der täglich mit Fahrgast gefahrenen Strecke und den bekannt gegebenen Taxi-Gebühren lässt sich das Tageseinkommen des

10 May-

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

16 May23 May-

n/a

30 May6 Jun13 Jun20 Jun27 Jun-

Abb. 7 Die klassifizierte Durchschnittsdauer des Stillstehens pro Viertelstunde. Jede Zeile entspricht einem Tag vom 10. May bis 30. Juni. Jede Spalte repräsentiert eine Viertelstunde. Je länger des Stillstehens, desto dunkler ist der Farbton. Die fehlenden Daten werden in Weiß dargestellt [4]

9 Räumliches Data-Mining und Big Geospatial Data

241

occupied ratio

Abb. 8 Trajektorien des Taxis (ID = 10003) am 12. Mai, 2010: mit Fahrgast (rot), ohne Fahrgast (blau) Income level vs. idle state of the taxis [4]

350

250 200

high

0

2

4

6

150

low

8 10 12 14 16 18 20 22 hour

100 50 0 541 628 701 757 813 870 926 982 1039 1095 1141 1194 1330

income (RMB)

avg. stationary duration(mins)

Car frequency

300

0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0

60 high

50

low

40 30 20 10 0 0

2

4

6

8 10 12 14 16 18 20 22 hour

Abb. 9 Normalverteilung des Durchschnittstageseinkommens (links); Besetzungsrate der Taxis in beiden Einkommensgruppen (oben rechts); Anhaltezeit der Taxis in beiden Einkommensgruppen (unten rechts) [4]

Taxifahrers ableiten. Ferner werden die Tageseinkommen von 2000 Taxifahrern in zwei Gruppen „high“ (hoch) und „low“ (niedrig) eingeteilt. Vergleicht man das Einkommensniveau mit dem in den GPS-Trajektorien reflektierten Fahrverhalten so wird es möglich, verschiedene hypothetische Zusammenhänge aufzudecken. Abb. 9 zeigt die Normalverteilung des Durchschnittstageseinkommens. Die Taxifahrer in Gruppe high haben eine höhere Besetzungsquote und verlieren durchgehend weniger Anhaltezeit als die in Gruppe low.

242

L. Meng

Abb. 10 Stellen des Stillstehens von 10 Uhr bis 24 Uhr für Gruppe A (links) und Gruppe B (rechts). Verkehrsstau und Ampel (rot), Parkplatz (gelb). Der Zeitraum von 10. Mai bis 30. Juni wird auf die vertikale Axis projiziert [4]

avg. stationary duration (mins)

20 15 10 5 0 high congestion

low parking

Abb. 11 Die Durchschnittsdauer des Stillstehens pro Stunde im Verkehrsstau (blau) und am Parkplatz (orange) für Gruppe high und Gruppe low [4]

Eine nähere Analyse des Stillstehens und des Leerlaufs führt zur Identifizierung weiterer hypothetischer Verhaltensunterschiede zwischen den beiden Einkommensgruppen. In Abb. 10 werden nach dem Verfahren „Space-Time Cube“ die Stellen des Stillstehens von 10 Uhr bis 24 Uhr im Zeitraum zwischen 10. Mai und 30. Juni für beide Einkommensgruppen abgebildet. Offenbar sind die Taxifahrer von Gruppe high öfter im Stau (rot) steckengeblieben, während die Taxifahrer von Gruppe low öfter am Parkplatz (gelb) gewartet haben. Beide Gruppen verlieren ungefähr eine gleiche Zeitmenge im Verkehrsstau, aber Gruppe low verliert deutlich mehr Zeit am Parkplatz als Gruppe high (Abb. 11) Die räumliche Verteilung der Leerlauffahrten von beiden Gruppen wird in Abb. 12 veranschaulicht. Die einzelnen Punkte in Abb. 12a, b entsprechen den geometrischen Mittelpunkten jeweiliger Leerlauffahrten, deren Verteilungsdichten in Abb. 12c, d wiedergegeben

9 Räumliches Data-Mining und Big Geospatial Data

243

Abb. 12 Räumliche Verteilung des Leerlaufs für Gruppe high (a, c) und Gruppe low (b, d) [4]

sind. Offenbar sind die von der Gruppe high hinterlassenen Reisespuren deutlich kompakter (Abb. 12a, c) als die von der Gruppe low (Abb. 12b, d) Ein weiterer Schwerpunkt zur Exploration in den Taxidaten besteht in der Interpretation der Taxitrajektorien, die von einer bestimmten Transportdrehscheibe wie z. B. Flughafen und Bahnhof ausgehen [5]. In Abb. 13 werden alle besetzten GPS-fähigen Taxitrajektorien vom Shanghai Pudong Flughafen zu diversen Zielorten in der Stadt Shanghai sowie die räumliche Verteilung der Absetzungsstellen visualisiert. In einem weiteren Schritt haben die Autoren die Absetzungsstellen nach dem Clustering-Verfahren „Gaussian mixture models“ (GMMs) klassifiziert. Jede Klasse trägt dann das Label der dominierten Widmung des umgebenden Gebäudeblockes. Es gibt vier Widmungskategorien – öffentliche Gebäude (z. B. Bahnhof, Universität, Museum), kommerzielle Gebäude (z. B. Restaurant, Hotel), Wohngebiet und Industriegebiet Welcher Widmungskategorie ein Gebäudeblock zuzuordnen ist, hängt im Wesentlichen von den Nutzungsarten der in OSM gesammelten POIs im gleichen Gebäudeblock ab Abweichungen oder Mehrdeutigkeiten könnten vorkommen, wenn die POIs nicht repräsentativ oder nicht eindeutig genug waren. Abb. 14 zeigt ein Screenshot der mit OpenLayers implementierten visuell analytischen Benutzerschnittstelle aus drei miteinander verlinkten graphischen Komponenten, nämlich einem Kartenfeld, einem kreisförmigen Histogramm (unten

244

L. Meng

Abb. 13 (a) Die Lage des Shanghai Pudong Internationalen Flughafens; (b) Von PudongFlughafen ausgehende Taxitrajektorien mit Fahrgast; (c) Aufnehmenstellen (orange) und Absetztenstellen (blau) [5]

rechts) und einem Uhrdiagramm (oben rechts) [5]. Ein überwältigender Anteil der Taxifahrgäste vom Shanghai Pudong Flughafen wurden an Stellen in der Nähe von öffentlichen und kommerziellen Gebäuden abgesetzt, die jeweils in blau und gelb markiert sind. Besonders viel Taxiverkehr hat zwischen dem Flughafen und dem Hauptbahnhof stattgefunden, wie man im Kartenfeld der Abb. 14 an den grünen Linien zwischen den beiden Verkehrsdrehscheiben erkennen kann. Der Hauptbahnhof ist durch ein rotes Polygon mit weißem Rand dargestellt. Die entsprechende Absetzungshäufigkeit am Hauptbahnhof ist im Histogramm durch einen weißen Stab vertreten. Im Uhrdiagramm werden 24 Stunden in acht Zeitblöcke eingeteilt. Der Nutzer darf einen beliebigen Zeitblock auswählen, um die entsprechenden temporalen Muster im Kartenfeld und Histogramm synchronisch zu beobachten.

9 Räumliches Data-Mining und Big Geospatial Data

245

Abb. 14 Visuell analytische Benutzerschnittstelle, Absetzungscluster und ihre Widmung: öffentliche Gebäude (blau), kommerzielle Gebäude (gelb), Wohngebiet (grün) und Industriegebiet (magenta); Trajektorien zwischen Pudong Flughafen und Zielorten (grüne Linien) [5]

5

Schlussbemerkungen

Räumliches Data-Mining ist ein umfassendes Thema, das seit zwei Jahrzehnten in der Forschungsagenda der Geoinformatik steht. Dieses Kapitel befasst sich mit einigen Aspekten des Themas Der erste Teil setzt sich mit dem Phänomen Big Data im Zusammenhang mit der Digitalisierung der Erdoberfläche auseinander. Die Autorin geht u. a. auf die Eigenschaften des offenen Big-Data-Ökosystems und dessen Einfluss auf unser Alltagsleben ein, wobei Big Geodata den Hauptbestandteil der Big Data bilden. Die Rolle des raumzeitlichen Data-Mining für die Handhabung mit Big-Data wird hervorgehoben. Der zweite Teil widmet sich den praktischen Untersuchungen. Einige aktuelle Forschungs- und Entwicklungsarbeiten am Lehrstuhl für Kartographie der Technischen Universität München über Geodaten-Matching, Event-Mining und Verhaltensinterpretation anhand der GPS-Trajektorien werden als Beispiele des räumlichen Data-Mining vorgestellt.

Literatur 1. Arsanjani, J., Zipf, A., Mooney, P. und Helbich, M.: An introduction to OpenStreetMap in geographic information science. In: Arsanjani, J., Zipf, A., Mooney, P., Helbich, M. (Hrsg.) OpenStreetMap in GIScience – Experiences, Research and Appllications. Springer Lecture Notes in Geoinformation and Cartography, S. 1–15. Springer, Cham/Heidelberg (2015) 2. Bond, R.-M., Fariss, C.-J., Jones, J.-J., Kramer, A.D.I., Marlow, C., Settle, J.-E., Fowler, J.H.: A 61-million-person experiment in social influence and political mobilization. Nature 489, 295–298 (2012) 3. Crawford, K.: The hidden biases in big data Harvard Business Review. https://hbr.org/2013/04/ the-hidden-biases-in-big-data (2013)

246

L. Meng

4. Ding, L., Fan, H., Meng, L.: Understanding taxi driving behaviors from movement data. In: AGILE’2015, Lisbon, 9–12 June 2015 5. Ding, L., Yang, J., Meng, L.: Visual analytics for understanding traffic flows of transport hubs from movement data. In: Proceedings International Cartographic Conference 2015, Rio de Janeiro, 23–28 Aug 2015 6. Hackeloeer, A., Klasing, K., Krisp, J.M., Meng, L.: Comparision of point matching techniques for road network matching. In: Shi, W., Wu, B., Stein, A. (Hrsg.) Uncertainty Modelling and Quality Control for Spatial Data. Tayler & Francis Group, London (2015) 7. Kremer, H., Kranen, P., Jansen, T., Seidl, T., Bifet, A., Holmes, G., Pfahringer, B.: An effective evaluation measure for clustering on evolving data streams. In: Proceedings of the 17th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, San Diego (2011) 8. Kubat, M., Bratko, I., Michalski, R.-S.: A review of machine learning methods. In: Michalski et al. (Hrsg.) Machine Learning and Data Mining – Methods and Applications, S. 3–69. John Wiley, New York (1998) 9. Lazer, D., Kennedy, R., King, G., Vespignani, A.: The parable of Google flu: traps in big data analysis. Science 343, 1203–1205 (2014) 10. Liu, L.: Data model and algorithms for multimodal route planning with transportation networks. Dissertation, Lehrstuhl für Kartographic, TUM (2010) 11. Meng, L.: Kartographie für Jedermann und Jedermann für Kartographie – Warum und Wie? Kartographische Nachrichten, S. 246–253 (2011) 12. Mertens, P., Wieczorrek, H.-W.: Data X Strategien: data warehouse, data mining und operationale Systeme für die Praxis Kapitel 2. Springer, Heidelberg (2013) 13. Mooney, P.: An outlook for OpenStreetMap. In: Arsanjani, J., Zipf, A., Mooney, P., Helbich, M. (Hrsg.) OpenStreetMap in GIScience – Experiences, Research and Appllications. Springer Lecture Notes in Geoinformation and Cartography, S. 319–324. Springer Cham, Heidelberg (2015) 14. Polous, K., Krisp, J., Meng, L., Xiao, J., Shrestha, B.: OpenEventMap; a volunteered location based service. In: Proceedings of International Cartographic Conference, Rio de Janeiro, 23–28 Aug 2015 15. Roder, I., Leymüller, M., Leitner M.: Geographische Analysemaschine (GAM) – Eine Sensitivitätsanalyse einer innovativen und explorativen Methode zur Identifikation räumlicher Punktcluster. AGIT-Symposium Salzburg. www.agit.at/php_files/myagit/papers/papers_detail. php?kategorie=FPR&Veranstaltung=2001&Spezial=0 (2001) 16. Schoeneberg, K.-P., Pein, J.: Einsatz fortschrittlicher Visualisierungsmöglichkeiten zur Komplexitätsbeherrschung betriebswirtschaftlicher Sachverhalte im Unternehmen. In: Schoeneberg, K.-P. (Hrsg.) Komplexitätsmanagement in Unternehmen, S. 309–354. Gabler Verlag, Wiesbaden (2014) 17. Sui, L., Meng, L.: Adding the value of NavTech road database: an implementation of spatial data mining techniques. J. Geogr. Sci., Acta Geogr. Sin. 11, 69–73 (2001). Beijing 18. Zhang, J.: A congruent hybrid model for conflation of satellite image and road database. Dissertation, Lehrstuhl für Kartographie, TUM (2013) 19. Zhang, M.: Methods and implementations of road-network matching. Dissertation, Lehrstuhl für Kartographie, TUM (2009) 20. Zhang, M., Yao, W., Meng, L.: Enrichment of topographic road database for the purpose of routing and navigation. Int. J. Digit. Earth (2012). https://doi.org/10.1080/17538947.2012. 717110

Stichwortverzeichnis

A affordance theory 77 Aggregation 124, 147 Algorithmus 188 gieriger 197 rekursiver 201 Analyse räumliche 186 Animation 18 Approximationsalgorithmus 218 Approximationsgüte 218 Atlas 2 Atlas-Informationssystem 3 Hauptfunktionen 11 Augmented Reality 18, 52 Augmented Reality Display 60 Augmented-Reality-Visualisierungstechnik 45 Ausgleichungsrechnung 208 automatisierte Datenanalyse 22, 25, 36

B Benutzeroberfläche graphische 14, 50 Benutzerschnittstelle graphische 18 Bewegungsanalyse 160 algorithmische 160 Computer-gestützte 178 Bewegungsdatenanalyse 40 Bewegungsmuster 159, 167 Big Data 227 Big Geodata 227 Branch-and-Cut 211

C Clustering 167 Computer Aided Design 2 Context Aware Interfaces 55

D Data-Mining räumliches 225 Datenanalyse automatisierte 22, 25, 36 explorative 23, 169 Datenerfassung raumzeitliche 226, 231 Datenmodellkonzeptuelles 160 Datenschutz 175 3D-Darstellung 45 Desktop Publishing Systeme 2 Detailstufen progressive 134 Detailstufenübergang 148 3D-Gebäudegeneralisierung 126 3D-Gebäudemodell 126, 146 3D-Gebäudemodellierung 127 Didaktikfunktion 10 Display 59 3D-Oberflächenmodell 124 3D-Punktwolken 125 3D-Stadtmodell 124, 127, 129, 134, 146, 152

E Edit-Distanz 165 Effektivität 94 Effizienz 94 Eigenautonomie 83 Elektronischer Atlas 2 Embodied Facilitation 55 Enumeration explizite 190 Event-Mining 237 explorative Datenanalyse 23, 169 expressive Representation 55

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 M. Sester (Hrsg.), Geoinformatik, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47096-1

247

248 F Fokussierung 147 Formvereinfachung 134, 142 Fortbewegung 72 Fréchet-Metrik 166 Funktionen generelle 10 Wachstum 191

G Generalisierung 124 Geodatenfusion 109 Komponenten 111 geodatenhaltende Stelle 102 Geodateninfrastruktur 92 administrative 97 Architektur 105 Entwicklung 102 Methoden 102 Geodaten-Matching 234 Geodatentransformation 107 geographisches Informationssystem 2 Geography Markup Language 107 Geoinformation 69 nutzergenerierte 96 Geoinformationenaustausch 118 Geoinformationsinfrastruktur wissenschaftliche 100 Geoprozessierung verteilte 112 Geoprozessierungslogik 114 Geosensornetzwerk 175 GeoVisual Analytics 22, 25, 28 nutzerorientiertes Konzept 26 GeoVisual-Analytics-Werkzeug 26, 33 Geovisualisierung 46 interaktive Systeme 49 GIS-Funktionen 10 GIS-Konzept 5 GPS 40, 58, 71, 171 Graph geometrischer 188 graphische Benutzeroberfläche 14, 50 graphische Benutzerschnittstelle 18 Greedy-Algorithmus 197

H Handlungstheorie 26 Hyptertext Transfer Protocol 105

Stichwortverzeichnis I Indexierung 162 Informationssystem geographisches 2 Informationsvisualisierung 46 INSPIRE (Infrastructure for Spatial Information in the European Community) 92, 97 Komponenten 99 Interaction Design 14 Interaktionsparadigmen 50 interaktive Visualisierung 22, 25, 35 Interdisziplinarität 93 Interoperabilität 93 K Kartendienst kommerzieller 94 kartographische Visualisierung 12 Katastrophenmanagement 172 kombinatorische Optimierung 186 Kommunikation 46, 158 kartographische 48 zwischenmenschliche 76 Komplexitätstheorie 193 konzeptuelles Datenmodell 160 k-opt-Nachbarschaft 216 L Landmarke 76 Locaction-Based Services 162 lokal optimale Lösung 216 M Maximierungsproblem 188 Menge maximale unabhängige 210 Mensch-Maschine-Interaktion 9 Minimierungsproblem 188, 220 Mixed Reality 53 Mixed-Reality-System 55 Komponenten 56 raumbezogene Information 61 Moving Object Databases 172 Multimedia-/Hypermedia-Konzept 5 Multimedia-Information 3 N Navigationsfunktion 10 Navigationsunterstützung 69 technisches System 80

Stichwortverzeichnis O Ontologie 178 OpenStreetMap-Projekt 96 Optimierung kombinatorische 186 optisches Trackingverfahren 58 Orientierung 72

P PANGAEA (Data Publisher for Earth and Environmental Science) 100 Polynomialzeit-Approximationsschema 220 Privatsphäre 175 Problem NP-schweres 206, 210 Problemdefinition 188 Programm lineares 208 Programmierung dynamische 200 lineare, ganzzahlige 208, 211 mathematische 208 progressive Detailstufen 134

R räumliche Analyse 186 räumliches Data-Mining 225 Raumkognition 74 Raumrepräsentation kognitive 74 Repräsentation expressive 55 ROA-Webdienst 105

S Satellitennavigation 70 Segmentierung 164 Semantic Web 106 Serendipität 5 Simplifizierung 124

249 Simulated Annealing 217 Skalierbarkeit 93 SOA-Webdienst 106 Spatial Interaction 54 Sport 173 Storytelling 6 Subsidiarität 93 Sweep-Line-Algorithmus 211, 213 Symbolisierung 146

T Tangible Interaction 54 Tracking 159 Trackingsverfahren optisches 58 Trajektorie 161 Transparenz 93 Typifizierung 146

U ubiquitous computing 172 Umweltmodell interdisziplinäres 114 Unified Modelling Language 107 User Centered Design 14 UseTable 64

V Verkehr 172 Virtual Reality 51, 56 Visual Analytics 22, 170 Visual-Analytics-Werkzeug 26 Visualisierung 46 interaktive 22, 25, 35 kartographische 12 Visualisierungsfunktion 10

W Worst-Case-Laufzeit 192