Signale und Systeme [7., erweiterte Auflage] 9783110626322, 9783110626315

Designed both as a textbook and as a reference work, Signals and Systems provides a detailed description of the foundati

193 27 16MB

German Pages 710 Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Signale und Systeme [7., erweiterte Auflage]
 9783110626322, 9783110626315

Table of contents :
Vorwort
Vorwort zur fünften Auflage
Vorwort zur ersten Auflage
Inhaltsverzeichnis
Teil I. Einführung
1. Einleitung
2. Mathematische Grundlagen
Teil II. Zeitkontinuum
3. Zeitkontinuierliche Signale
4. Zeitkontinuierliche Systeme
Teil III. Zeitdiskretisierung
5. Zeitdiskrete Signale
6. Zeitdiskrete Systeme
Teil IV. Zeit-Frequenz-Analyse
7. Signaldarstellung mit Frames
8. Kurzzeit-Fourier- Transformation
9. Wavelet-Transformation
10. Quadratische Zeit-Frequenz-Verteilungen
A. Zusammenfassung der Fourier-Transformationen
B. Zusammenfassung der Laplace-Transformation
C. Zusammenfassung der z-Transformation
D. Blockschaltbilder
E. Beweise
Literaturverzeichnis
Index

Citation preview

Fernando Puente León, Holger Jäkel Signale und Systeme De Gruyter Studium

Weitere empfehlenswerte Titel Ereignisdiskrete Systeme, 3. Auflage Fernando Puente León / Uwe Kiencke, 2013 ISBN 978-3-486-73574-1 e-ISBN (PDF) 978-3-486-76971-5

Mikrocontrollertechnik mit AVR Programmierung in Assembler und C - Schaltungen und Anwendungen Günter Schmitt / Andreas Riedenauer, 2019

Technische Mechanik Statik-Elastostatik-Kinematik-Kinetik Delf Sachau / Eberhard Brommung / Gottfried Sachs, 2019 ISBN 978-3-11-064324-4, e-ISBN (PDF) 978-3-11-064357-2

Digitaltechnik TTL-, CMOS-Bausteine, komplexe Logikschaltungen (PLD, ASIC) Herbert Bernstein, 2019 ISBN 978-3-11-058366-3, e-ISBN (PDF) 978-3-11-058367-0

tm – Technisches Messen Fernando Puente León, Bernhard Zagar (Editors-in-Chief), 12 Hefte pro Jahrgang ISSN 2196-7113

Fernando Puente León, Holger Jäkel

Signale und Systeme 7., überarbeitete Auflage

Autoren Prof. Dr.-Ing. Fernando Puente León Karlsruher Institut für Technologie Institut für Industrielle Informationstechnik Hertzstr. 16 76187 Karlsruhe [email protected] Dr.-Ing. Holger Jäkel Karlsruher Institut für Technologie Institut für Nachrichtentechnik Kreuzstr.11 76133 Karlsruhe [email protected]

ISBN 978-3-11-062631-5 e-ISBN (PDF) 978-3-11-062632-2 e-ISBN (EPUB) 978-3-11-062637-7 Library of Congress Control Number: 2019947131 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2019 Walter de Gruyter GmbH, Berlin/Boston Druck und Bindung: CPI books GmbH, Leck www.degruyter.com

Vorwort Das vorliegende Lehrbuch wendet sich an Studierende der Ingenieurwissenschaften (insbesondere der Elektrotechnik, Informationstechnik, Mechatronik und des Maschinenbaus) und der Informatik sowie an Ingenieure in der Praxis, die einen Einblick in die spannenden Gebiete der Signalverarbeitung und der Systemtheorie gewinnen wollen. Es fußt auf Vorlesungen der Autoren am Karlsruher Institut für Technologie. Das Buch ist so konzipiert, dass sich der Leser den Stoff selbst aneignen und weiterführende Literatur erschließen kann. Zahlreiche Beispiele illustrieren die dargestellten Methoden und tragen zum besseren Verständnis und zur Vertiefung der Inhalte bei. Seit der sechsten Auflage wurden zahlreiche Verbesserungen vorgenommen und praxisrelevante Beispiele ergänzt. Grundlegend erweitert wurde das Kapitel 9, in welchem nun sowohl die schnelle Wavelet-Transformation als auch die Wavelet-PaketTransformation ausführlich behandelt werden. Die erste dieser Methoden erlaubt eine äußerst recheneffiziente Zeit-Frequenz-Analyse; bei der zweiten lässt sich durch Nutzung eines hochgradig redundanten Funktionensystems eine kompakte Darstellung von Signalen erzielen. Als weitere Neuerung ist das Kapitel 10 hinzugekommen, das den Lesern die Gelegenheit bietet, die Signalanalyse mittels leistungsfähiger quadratischer Zeit-Frequenz-Darstellungen zu erschließen. Diese ermöglichen es, zeitveränderliche Frequenzcharakteristika von Signalen zu erfassen, ohne die mit einer Signalfensterung einhergehende Unschärfe in Kauf nehmen zu müssen. Abschließend möchten wir uns bei all denjenigen bedanken, deren großes Engagement zum Gelingen des Buches beigetragen hat: • bei den Studierenden und Hörern, die auf Korrekturen hingewiesen und Anregungen zur Aufbereitung des Stoffes geliefert haben, • bei Herrn M.Sc. Matthias Bächle, Herrn M.Sc. Benjamin Jäschke und Herrn M.Sc. Wolfgang Krippner für wertvolle Diskussionen über den Inhalt des Buches sowie • beim De Gruyter Verlag für die weiterhin ausgezeichnete Zusammenarbeit. Nicht zuletzt schulden wir unseren Familien ganz besonderen Dank. Ohne ihre große Unterstützung wäre es nicht möglich gewesen, dieses Buch fertigzustellen. Wir hoffen, dass es die Leser erfolgreich in die Signal- und Systemtheorie einführt. Karlsruhe, im Sommer 2019

Fernando Puente León und Holger Jäkel

Vorwort zur fünften Auflage In der vorliegenden überbearbeiteten und erweiterten Auflage wurde die Struktur des Buches beibehalten, weil sie sich im Lehrbetrieb über viele Jahre bewährt hat. Dennoch wurden zahlreiche Textpassagen und Gleichungen überarbeitet oder ergänzt, neue Beispiele und Abbildungen hinzugefügt und nahezu jede Abbildung überarbeitet, um eine bessere Verständlichkeit sowie eine konsistentere Verwendung der mathematischen Symbole zu erzielen. Bei dieser Gelegenheit wurde die Darstellung von

Vorwort

VI

Vektoren und Matrizen an die international übliche Notation angepasst. Zur besseren Anschauung wurden neue Beispiele aus der Bildverarbeitung aufgenommen. Erweitert wurden außerdem die Abschnitte über stochastische Signale, die FourierTransformation, das Abtasttheorem und die diskrete Fourier-Transformation. Darüber hinaus konnten durch Hinweise von Lesern und Hörern Fehler korrigiert und Erläuterungen verbessert werden. Besonderer Dank gilt Herrn Dipl.-Ing. Andreas Sandmair und Herrn Dipl.-Ing. Matthias Michelsburg für wertvolle Hinweise und für die Korrektur des Manuskripts. Weiterhin danken wir dem Oldenbourg-Verlag für die ausgezeichnete Zusammenarbeit. Karlsruhe, im Juli 2010

Fernando Puente León, Uwe Kiencke, Holger Jäkel

Vorwort zur ersten Auflage Das vorliegende Studienbuch zum Thema „Signale und Systeme“ wendet sich an Studenten der Fachrichtung Elektrotechnik an wissenschaftlichen Hochschulen sowie an Ingenieure und Naturwissenschaftler, die einen Einblick in dieses Gebiet gewinnen wollen. Es entstand in Zusammenhang mit der gleichnamigen Vorlesung an der Universität Karlsruhe. Das vorliegende Buch kann somit zur Begleitung einer etwa drei Semesterwochenstunden umfassenden Vorlesung benutzt werden. Zur Nutzung dieses Buches werden grundlegende Kenntnisse in der Elektrotechnik, gute Kenntnisse in der höheren Mathematik, der Wahrscheinlichkeitsrechnung und Grundkenntnisse in der Fourier- und Laplace-Transformation vorausgesetzt. Die mathematischen Grundlagen führen den Begriff des Hilbert-Raumes ein. Auf dieser Basis können Gesetzmäßigkeiten aus dem euklidischen Vektorraum auf den Funktionenraum übertragen werden. Bei den Transformationen geht es um deren wichtigste Eigenschaften in praktischen Anwendungen. Die Fourier-Transformation wird üblicherweise auf Signale, die Laplace- und z-Transformation auf Systeme angewendet. Die Signale und Systeme werden dabei zuerst im kontinuierlichen und dann im diskreten Zeitbereich betrachtet. Gerade die erste Auflage eines Buches kann, trotz mehrmaligen Durchschauens, nicht ohne Fehler sein. Verbesserungsvorschläge und Fehlerkorrekturen sind dem Autor jederzeit willkommen. Abschließend danke ich Herrn Dipl.-Ing. Ralf Schernewski, dessen großes Engagement wesentlich zum Gelingen dieses Buches beigetragen hat; insbesondere danke ich für die Erstellung der LATEX-Dateien, das Durchrechnen der Beweise und die langen konstruktiven Diskussionen, in denen der klare und verständliche Aufbau dieses Buches entstanden ist. Außerdem möchte ich dem Oldenbourg-Verlag für die gute Zusammenarbeit danken. Karlsruhe, im November 1997

Uwe Kiencke

Inhaltsverzeichnis Vorwort

V

I

Einführung

1

1

Einleitung

3

1.1

Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.2

Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.3

Signalverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

1.4

Struktur des Buches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2

Mathematische Grundlagen

11

2.1

Räume. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Metrischer Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Linearer Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Normierte Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Innenproduktraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.5 Unitärer Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.6 Hilbert-Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.7 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11 12 13 15 16 18 20 21

2.2

Integraltransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.1 Integrationskerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.2 Zweidimensionale Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.3

Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Lineare Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Typen von linearen Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3 Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.4 Verschiebungsoperator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32 33 38 39 41

Inhaltsverzeichnis

VIII 2.4

Holomorphe Funktionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Cauchy’sche Integralformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Laurent-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.3 Residuensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

42 42 44 48

II

Zeitkontinuum

3

Zeitkontinuierliche Signale

53

3.1

Funktionenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Norm und Innenprodukt von Signalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Norm und Innenprodukt mit Belegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

53 54 56 58

3.2

Stochastische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

59 59 60 66

3.3

Deterministische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.3.1 Orthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.3.2 Biorthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

3.4

Fourier-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

3.5

Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 3.5.1 Definition der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.5.2 Eigenschaften der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.5.3 Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3.5.4 Cosinus- und Sinus-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

3.6

Testsignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3.6.1 Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 3.6.2 Konstantes Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.6.3 Vorzeichenfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.6.4 Einheitssprung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.6.5 Komplexe Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.6.6 Rechteckfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 3.6.7 Exponentialimpuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 3.6.8 Doppelseitige Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 3.6.9 Exponentialsignal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 3.6.10 Gauß-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

51

Inhaltsverzeichnis

IX

3.7

Besonderheiten der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 3.7.1 Leckeffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 3.7.2 Gibbs’sches Phänomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

3.8

Allgemeine Signaleigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 3.8.1 Zeitdauer-Bandbreite-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 3.8.2 Riemann-Lebesgue’sches Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

3.9

Verwendung von Fensterfunktionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

3.10 Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 4

Zeitkontinuierliche Systeme

145

4.1

Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 4.1.1 Lineare zeitinvariante Systeme (LTI-Systeme) . . . . . . . . . . . . . . . . . . . . . . . . . . 150 4.1.2 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

4.2

Systembeschreibung durch Differentialgleichungen. . . . . . . . . . . . . . . . . . . . . . . . . . . 156 4.2.1 Allgemeine Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 4.2.2 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

4.3

Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 4.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 4.3.2 Konvergenz der Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.3.3 Inverse Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 4.3.4 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 4.3.5 Rücktransformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 4.3.6 Anwendung bei der Systembeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 4.3.7 Vergleich zwischen Laplace- und Fourier-Transformation . . . . . . . . . . . . . 180

4.4

Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 4.4.1 Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 4.4.2 Verknüpfung von Systemfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 4.4.3 Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 4.4.4 Bode-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 4.4.5 Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 4.4.6 Strukturdarstellung kontinuierlicher LTI-Systeme . . . . . . . . . . . . . . . . . . . . . 201

4.5

Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 4.5.1 Filtertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 4.5.2 Entwurf normierter Tiefpässe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 4.5.3 Bestimmung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

4.6

Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216

4.7

Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225

Inhaltsverzeichnis

X

III

Zeitdiskretisierung

231

5

Zeitdiskrete Signale

233

5.1

Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 5.1.1 Zeitdiskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 5.1.2 Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 5.1.3 Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 5.1.4 Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

5.2

Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248

5.3

Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 5.3.1 Definition der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . 250 5.3.2 Eigenschaften der Fourier-Transformation zeitdiskreter Signale . . . . . . . 252 5.3.3 Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254

5.4

Abtastfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 5.4.1 Überabtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 5.4.2 Unterabtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264

5.5

Spektralanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 5.5.1 Diskrete Fourier-Transformation (DFT). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 5.5.2 Schnelle Fourier-Transformation (FFT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 5.5.3 Eigenschaften der DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 5.5.4 Auflösung im Zeit- und Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 5.5.5 DFT einer komplexen Schwingung ohne Leckeffekt . . . . . . . . . . . . . . . . . . . 284 5.5.6 DFT einer komplexen Schwingung mit Leckeffekt . . . . . . . . . . . . . . . . . . . . . 285 5.5.7 Zero-Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 5.5.8 Periodogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

5.6

Verwendung von Fensterfunktionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 5.6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 5.6.2 Rechteckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 5.6.3 Dreieckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294 5.6.4 Hann-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 5.6.5 Blackman-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 5.6.6 Dolph-Tschebyschow-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 5.6.7 Zeitdiskretes Gauß-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 5.6.8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298

5.7

Weitere diskrete Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 5.7.1 Walsh-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 5.7.2 Allgemeine diskrete Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303

5.8

Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305

Inhaltsverzeichnis

XI

6

Zeitdiskrete Systeme

311

6.1

Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 6.1.1 Lineare zeitinvariante Systeme (LTI-Systeme) . . . . . . . . . . . . . . . . . . . . . . . . . . 314 6.1.2 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316

6.2

Systembeschreibung durch Differenzengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . 317 6.2.1 Allgemeine Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 6.2.2 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

6.3

Die z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320 6.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320 6.3.2 Existenz der z-Transformierten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 6.3.3 Inverse z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 6.3.4 Möglichkeiten der Rücktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 6.3.5 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335

6.4

Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 6.4.1 Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 6.4.2 Verknüpfung von Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 6.4.3 Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 6.4.4 Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 6.4.5 Strukturdarstellung zeitdiskreter LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . 356

6.5

Linearphasige Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 6.5.1 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 6.5.2 Linearphasige FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367

6.6

Zeitdiskrete Darstellung kontinuierlicher Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371 6.6.1 Umsetzung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 6.6.2 Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 6.6.3 Pol- und Nullstellenübertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374 6.6.4 Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375

6.7

Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 6.7.1 Kausales FIR-Filter über Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 6.7.2 Akausales FIR-Filter über die DFT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386 6.7.3 IIR-Filter über die zeitdiskrete Übertragungsfunktion . . . . . . . . . . . . . . . . . 391 6.7.4 FIR-Filter über Transformation des Frequenzganges . . . . . . . . . . . . . . . . . . . 395

6.8

Spezielle zeitdiskrete Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 6.8.1 Zeitdiskrete Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 6.8.2 Zeitdiskreter Differenzierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406 6.8.3 Korrektur der Gruppenlaufzeit eines Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407

6.9

Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412

Inhaltsverzeichnis

XII

IV

Zeit-Frequenz-Analyse

417

7

Signaldarstellung mit Frames

419

7.1

Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 7.1.1 Verschiebungsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 7.1.2 Effektive Zeitdauer und effektive Bandbreite. . . . . . . . . . . . . . . . . . . . . . . . . . . 422

7.2

Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 7.2.1 Skalierung im Zeit- und Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 7.2.2 Skalierungsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428

7.3

Hilbert-Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428 7.3.1 Basisfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 7.3.2 Orthonormalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 7.3.3 Biorthonormalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 7.3.4 Frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442 7.3.5 Straffe Frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 7.3.6 Frames mit verschobenen Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 454

7.4

Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459

8

Kurzzeit-Fourier-Transformation

8.1

Kontinuierliche Kurzzeit-Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461 8.1.1 Definition und Interpretationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461 8.1.2 Spektrogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466 8.1.3 Verschiebungsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467 8.1.4 Rekonstruktion des Zeitsignals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468 8.1.5 Beispiele zur Kurzzeit-Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . 470

8.2

Gabor-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479 8.2.1 Diskretisierung von Zeit- und Frequenzverschiebung . . . . . . . . . . . . . . . . . 479 8.2.2 Abtasttheorem für die Zeit-Frequenz-Verteilung . . . . . . . . . . . . . . . . . . . . . . . 481 8.2.3 Rekonstruktion des Zeitsignals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483 8.2.4 Gabor-Reihe als Frame . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 486

8.3

Diskrete Kurzzeit-Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 490 8.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 490 8.3.2 Rekonstruktion des zeitdiskreten Signals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 8.3.3 Berechnung der Synthesefunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494 8.3.4 Filterbank-Interpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 499

8.4

Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503

461

Inhaltsverzeichnis

XIII

9

Wavelet-Transformation

505

9.1

Kontinuierliche Wavelet-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 9.1.1 Skalierung des Analysefensters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 9.1.2 Definition der Wavelet-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 508 9.1.3 Skalogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 510 9.1.4 Zulässige Wavelets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 511 9.1.5 Verschiebungs- und Affininvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 9.1.6 Verteilung der Signalenergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 9.1.7 Energieerhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 9.1.8 Rekonstruktion des Signals im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519 9.1.9 Lokalisierungseigenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 520 9.1.10 Reproduzierender Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 521

9.2

Wavelet-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523 9.2.1 Gabor-Wavelet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523 9.2.2 Haar-Wavelet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 530 9.2.3 Shannon-Wavelet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531

9.3

Semidiskrete dyadische Wavelets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531 9.3.1 Dyadisch diskretisierter Skalierungsfaktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531 9.3.2 Rekonstruktion des Signals im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534

9.4

Dyadische Wavelet-Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 537 9.4.1 Diskretisierung von Skalierung und Zeitverschiebung . . . . . . . . . . . . . . . . . 537 9.4.2 Diskrete Wavelet-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539

9.5

Multiraten-Filterbank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540 9.5.1 Multiskalenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541 9.5.2 Schnelle Wavelet-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545 9.5.3 Inverse diskrete Wavelet-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548 9.5.4 Anwendung der Multiraten-Filterbänke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552 9.5.5 Zweidimensionale Wavelet-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 560

9.6

Herleitung von Wavelet und Skalierungsfunktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 561 9.6.1 Definition der Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 561 9.6.2 Berechnung der Skalierungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 564 9.6.3 Berechnung der Wavelet-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 567 9.6.4 Zusammenfassung der Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 569

9.7

Skalierungsfilter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572 9.7.1 Orthonormalität der Skalierungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573 9.7.2 Skalierungskoeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573 9.7.3 Daubechies-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 576 9.7.4 Berechnung von Skalierungsfunktion und Wavelet . . . . . . . . . . . . . . . . . . . . 580

Inhaltsverzeichnis

XIV

9.7.5 Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587 9.8

Wavelet-Paket-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 590 9.8.1 Erweiterung der Multiraten-Filterbänke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591 9.8.2 Redundanz des Wavelet-Paket-Baumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594 9.8.3 Wahl der besten Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596

9.9

Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601

10

Quadratische Zeit-Frequenz-Verteilungen

603

10.1 Wigner-Ville-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603 10.1.1 Ambiguitätsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603 10.1.2 Definition der Wigner-Ville-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 606 10.1.3 Eigenschaften der Wigner-Ville-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 611 10.1.4 Moyals Formel, Spektrogramm und Skalogramm . . . . . . . . . . . . . . . . . . . . . . 619 10.1.5 Rekonstruktion von Zeitsignal und Spektrum . . . . . . . . . . . . . . . . . . . . . . . . . . 622 10.1.6 Wigner-Ville-Verteilung von Mehrkomponentensignalen . . . . . . . . . . . . . . 623 10.1.7 Diskrete Wigner-Ville-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 630 10.2 Optimierte quadratische Zeit-Frequenz-Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . 631 10.2.1 Gefilterte Wigner-Ville-Verteilungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632 10.2.2 Cohen-Klasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633 10.2.3 Optimierung der Kernfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 645 10.2.4 Affine Klasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 647 10.2.5 Reassignment-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 649 10.2.6 Signalabhängige Filterung der Wigner-Ville-Verteilung . . . . . . . . . . . . . . . . 650 10.2.7 S-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651 10.3 Aufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 656 A

Fourier-Transformationen

659

B

Laplace-Transformation

665

C

z-Transformation

669

D

Blockschaltbilder

673

E

Beweise

675

E.1 Polarisationsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675 E.2 Zeitdiskrete Poisson’sche Summenformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 676 E.3 Innenprodukt von Gabor-Wavelets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 678

Inhaltsverzeichnis

XV

Literaturverzeichnis

681

Index

685

Teil I

Einführung

1

Einleitung

Wenn man ein Buch über Signale und Systeme schreibt, so stellen sich am Anfang die Fragen: • Was sind Signale?

• Was sind Systeme?

Neben der Materie und der Energie, die durch Einsteins Formel E = m c2 verknüpft sind, ist der Begriff „Information“ von großer Bedeutung. Informationen können – genauso wie Materie und Energie – gewonnen, verarbeitet, transportiert, gelagert und „gebraucht“ werden. Der Weg der Stahlkarosserie eines Automobils lässt sich etwa so beschreiben: Eisenerz wird gewonnen, dann in Hochöfen zu Rohstahl verarbeitet, zum Automobilhersteller transportiert, dort zwischengelagert und danach wird daraus die Karosserie gefertigt. Auch für die Energie lässt sich ein Beispiel angeben: Die potentielle Energie eines Staudamms wird in kinetische Energie des herabströmenden Wassers umgewandelt. In der Wasserturbine geht diese dann über in die rotatorische Energie des TurbineGenerator-Systems. Der Generator erzeugt daraus elektrische Energie, die hochtransformiert zum Verbraucher transportiert wird. Es soll hier nicht darüber diskutiert werden, welche Möglichkeiten es gibt, Materie und Energie zu gewinnen, zu verarbeiten, zu transportieren, zu lagern und zu nutzen, sondern diese Kette soll auf Informationen angewandt werden. Unabhängig vom abstrakten Begriff „Information“, wie er in der Nachrichtentechnik behandelt wird, wird diese technisch meist als physikalische Größe oder als Signal dargestellt. So kann man also Signale gewinnen (messen), verarbeiten, übertragen, speichern und nutzen. Mit der Signalgewinnung – d. h. dem Messen physikalischer Größen – beschäftigt sich die Messtechnik. Die Signalübertragung findet ihren Platz in der Nachrichtentechnik. In der Automatisierungstechnik werden Signale zum Beispiel dazu verwendet, Prozesse zu regeln und zu steuern. Das Speichern von Signalen ist ein interdisziplinärer Fachbereich, zumal digitale Signale äußerst einfach gespeichert werden können. Übrig geblieben ist die Signalverarbeitung. Nun sollte es einfacher sein, die Verarbeitung gegenüber den anderen Gliedern der Kette abzugrenzen. Man versteht unter Signalverarbeitung die Aufbereitung unterschiedlichster Signale, um bestimmte Informationen „herauszufiltern“. Genauso wie das Eisen erst aus dem Eisenerz gewonnen wird, müssen in vielen Anwendungen bestimmte Nutzinformationen aus einem „verrauschten“ Signal extrahiert werden. Des Weiteren können, entsprechend der Energie, Signale in andere Signale umgeformt werden. Auch hierdurch erhält man neue Informationen. Schließlich muss beachtet werden, dass auch

1 Einleitung

4

bei der Messung, Übertragung oder Speicherung von Signalen diese im Allgemeinen implizit verändert – also verarbeitet – werden.

1.1

Signale

Um auf die Frage näher eingehen zu können, was Signale sind, betrachten wir als Erstes nachfolgende Definition. Definition 1.1 Signal Unter einem Signal versteht man den zeitlichen Verlauf einer beobachteten Größe, die eine für den Betrachter relevante Information enthält.1 Beobachtete Größen können unterschiedlicher Natur sein. So kommen physikalische Messgrößen in Betracht, wie z. B. Spannung und Strom in der Elektrotechnik oder Schalldruck und Schallschnelle in der Akustik. Die physikalische Größe braucht in vielen Fällen jedoch nicht unmittelbar messbar zu sein, wenn es gelingt, sie aus anderen vorhandenen Messgrößen zu schätzen. Solche Schätzverfahren sind allerdings nicht Gegenstand dieses Buches. Die beobachtete Größe kann aber auch ganz anderer Art sein, z. B. das Datenwort in einem Computer oder Daten, die über das Internet bezogen werden. So ist der zeitliche Verlauf des Börsenkurses einer Aktie ein Signal. Die Aktienkurse schwanken bekanntlich stark, was als Störung angesehen werden kann. Anleger sind mehr am längerfristigen Kurstrend interessiert, weshalb Störungen und kurzfristige Schwankungen unterdrückt werden müssen. Auch dazu dient die Signalverarbeitung. Mathematisch werden Signale durch reell- oder komplexwertige Funktionen der Zeit dargestellt, das heißt, es handelt sich um eindeutige Abbildungen von R nach R oder nach C. Nicht jede Funktion der Zeit repräsentiert ein physikalisch erzeugbares Signal. Es ist jedoch hilfreich, auch physikalisch nicht realisierbare Signale als Signalmodelle für theoretische Untersuchungen zur Verfügung zu haben.

1.2

Systeme

Unter dem Begriff System versteht man eine Einrichtung, die auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) antwortet, vgl. Abb. 1.1. Mathematisch wird dieses Verhalten durch eine Operatorgleichung beschrieben: ya (t) = S{ye (t)} .

(1.1)

Als Beispiele sollen ein Spannungsteiler und ein RC-Tiefpass betrachtet werden. 1 In diesem Buch werden Signale y(t) überwiegend als Funktionen der Zeit t betrachtet. Vielfach interessiert man sich jedoch für Signale als Funktionen einer anderen Größe, etwa des zweidimensionalen Ortes x = (x, y)T , wie es bei Bildsignalen g(x) der Fall ist.

1.2 Systeme

5

Abbildung 1.1: Zur Definition des Systembegriffs.

Beispiel 1.1: Spannungsteiler als System Eine Eingangsspannung ue (t) wird an einen Spannungsteiler gelegt (siehe Abb. 1.2). Ohne große Rechnung ergibt sich die Ausgangsspannung ua (t) zu: ua (t) =

R2 · ue (t) . R1 + R2

(1.2)

Der Spannungsteiler ist ein System, das die Eingangsspannung ue (t) in die Ausgangsspannung ua (t) überführt. Gleichung (1.2) beschreibt das System mathematisch. •

Abbildung 1.2: Spannungsteiler.

Abbildung 1.3: RC-Tiefpass.

Beispiel 1.2: RC-Tiefpass als System Eine Eingangsspannung ue (t) wird an einen RC-Tiefpass gelegt (siehe Abb. 1.3). Mit dem Zusammenhang zwischen Strom und Spannung an einem Kondensator, iC (t) = C ·

duC (t) , dt

(1.3)

kann man den RC-Tiefpass als Differentialgleichung zwischen der Ausgangsspannung ua (t) und der Eingangsspannung ue (t) darstellen: RC · u˙ a (t) + ua (t) = ue (t) .

(1.4)

Benutzt man hingegen eine Zeigerdiagrammdarstellung aus den Grundlagen der Elektrotechnik, so ergibt sich mit Ua =

1 jωC

R+

1 jωC

· Ue =

1 · Ue 1 + jωRC

(1.5)

1 Einleitung

6

eine andere Darstellung zwischen Ein- und Ausgangsspannung. Während die Darstellung des Systems „RC-Tiefpass“ als Differentialgleichung für alle möglichen Eingangsspannungen eine Lösung anbietet, gilt die Zeigerdiagrammdarstellung nur bei sinusförmigen Spannungen. • Anhand der beiden Beispiele zeigt sich, wie schwierig es ist, ein System mathematisch zu beschreiben. Dabei versucht man, wie bei den Signalen, die Systeme durch eine Art Systemfunktion zu beschreiben.

1.3

Signalverarbeitung

Die Aufgabe der Signalverarbeitung ist die gezielte Bereitstellung von Systemen zur kontrollierten Beeinflussung von Signalen. Soll z. B. eine Spannung u(t) halbiert werden, so kann man dafür einen Spannungsteiler verwenden. Da sowohl Signale als auch Systeme durch Funktionen dargestellt werden, sind für die Ermittlung einer optimalen Systemfunktion Kenntnisse der Funktionalanalysis nötig. Um die grundlegende Struktur der Untersuchung von Signalen und die gezielte Bereitstellung von Systemen darstellen zu können, wird in diesem Abschnitt statt der Funktionalanalysis die Vektoranalysis, die aus den Grundlagenvorlesungen der höheren Mathematik bekannt ist, zur Motivation herangezogen. Dabei wird ein Signal durch einen Vektor dargestellt. Ein N -dimensionaler Vektor y repräsentiert einen Punkt im N -dimensionalen Raum, d. h. jedes Signal wird durch einen Punkt dargestellt. Untersucht man nun eines oder mehrere Signale auf bestimmte Eigenschaften, so untersucht man die Lage der den Signalen entsprechenden Punkte im Raum. Beispiel 1.3: Änderung der Basisvektoren Es soll untersucht werden, ob gegebene Signale auf einer Geraden liegen. Natürlich könnte man sämtliche Signalpunkte in die Geradengleichung einsetzen und überprüfen, ob sie diese erfüllen. Da aber in der Realität Signale physikalische Messgrößen beschreiben, weisen die Messwerte Störungen auf, d. h. auch wenn sich die physikalische Größe auf der Gerade befand, so befinden sich die Messwerte im Allgemeinen nicht darauf. Eine zweite Möglichkeit bestünde darin, den Abstand zwischen den Punkten und der Geraden zu bestimmen. Überschreitet der Abstand ein bestimmtes Maß nicht, so kann man annehmen, dass der jeweilige Punkt auf der Geraden liegt. Die dritte und hier weiter betrachtete Möglichkeit ist eine Änderung der Basisvektoren, sodass die Gerade parallel zu oder senkrecht auf den Basisvektoren steht. Dann müssen die Koordinaten, zu denen die Gerade senkrecht auf den Basisvektoren steht, innerhalb eines bestimmten Intervalls liegen. Die Änderung der Basisvektoren soll anhand von Abb. 1.4 demonstriert werden. Während der Punkt P im zweidimensionalen kartesischen Koordinatensystem die

1.3 Signalverarbeitung

7

Abbildung 1.4: Änderung der Basisvektoren.

Koordinaten p = (1, 1)T besitzt, lassen sich die Koordinaten im Basisvektorensystem S = {s1 , s2 } mit     2 −1 s1 = und s2 = (1.6) 1 2 über   1 1 p01 =   2 1

  2 · 1 3  = , 5 2 · 1

    1 −1 · 1 2 1 =   p02 =  5 −1 −1 · 2 2

(1.7)

berechnen. Im Allgemeinen wird die i-te Koordinate eines Vektors im neuen Basisvektorensystem S durch p0i =

p · si si · si

(1.8)

angegeben. Handelt es sich bei S um ein orthonormales Basisvektorensystem, so ist der Nenner si · si = 1 und die i-te Koordinate wird durch p0i = p · si

(1.9)

bestimmt. Von großer Bedeutung ist also das Innenprodukt „ · “ zwischen zwei Vektoren. Mit Hilfe des Innenproduktes kann man ein Signal in eine neue Darstellungsweise transformieren. Nach der Einführung eines verallgemeinerten Innenprodukts zwischen zwei Funktionen im Rahmen der Funktionalanalysis kann man mit dem Innenprodukt auch Signaltransformationen im Funktionenraum durchführen. Hierbei sei angemerkt, dass solch eine Transformation nicht das Signal,

1 Einleitung

8

sondern nur dessen Darstellung verändert. So liegt der Punkt P immer noch an derselben Stelle. Er besitzt im neuen Basisvektorensystem S nur andere Koordinaten. • Die Signalanalyse verändert also ein Signal nicht, sondern versucht durch geschickte Änderung der Darstellungsweise, mehr Aussagen über das Signal zu gewinnen. Lineare Systeme werden in der Vektoranalysis durch Matrizen S dargestellt. Die Multiplikation eines Eingangssignals ye mit einer Systemmatrix S ergibt ein Ausgangssignal ya : ya = S · ye .

(1.10)

Dies soll anhand von zwei Beispielen verdeutlicht werden. Beispiel 1.4: Projektion auf die x-Achse Möchte man einen Punkt P im zweidimensionalen Raum auf die x-Achse projizieren, so kann man dies mit Hilfe folgender Systemmatrix S tun:   1 0 . (1.11) S= 0 0 So wird zum Beispiel der Punkt (2, 3)T mit der Systemmatrix S auf den Punkt       2 1 0 2 (1.12) · = 3 0 0 0 •

projiziert. Beispiel 1.5: Drehung um den Winkel ϕ

Möchte man einen Vektor zum Punkt P im zweidimensionalen Raum um den Winkel ϕ drehen (siehe Abb. 1.5), so kann man dies mit folgender Systemmatrix S tun:   cos ϕ − sin ϕ . (1.13) S= sin ϕ cos ϕ So wird zum Beispiel der Punkt (2, 1)T bei einer Drehung von 30◦ mit der Systemmatrix S auf den Punkt √ √ ! !   2 3−1 3 1 2 2 2 −2 (1.14) = · √ √ 1 3+2 3 1 2

abgebildet.

2

2



Die beiden Beispiele illustrieren, wie ein lineares System im Bereich der Vektoranalysis durch eine Matrix dargestellt werden kann. Im Bereich der Funktionalanalysis werden Systeme durch Systemfunktionen beschrieben.

1.4 Struktur des Buches

9

Abbildung 1.5: Drehung eines Vektors zum Punkt P um den Winkel ϕ.

1.4

Struktur des Buches

Nach einer Einführung in die mathematischen Grundlagen werden zuerst Analysemethoden für Signale und dann Eigenschaften, Darstellung, Untersuchung und Entwurf von Systemen sowohl für kontinuierliche als auch für diskrete Zeitparameter vorgestellt. Im Zeitkontinuum werden reale physikalische Prozesse und deren Signale und Systeme durch Funktionen beschrieben. Dabei werden die physikalischen Größen in kontinuierliche Signale abgebildet, die durch die Signalfunktion dargestellt werden: Signalfunktion y(t):

y : R −→ C .

(1.15)

Bei der Zeitdiskretisierung liegen die Werte der physikalischen Größe nur zu äquidistanten Zeitpunkten vor, d. h. das Signal wird durch eine Folge dargestellt. Im Gegensatz zur üblichen mathematischen Folge existiert die Signalfolge auch für negative Indizes: Signalfolge yn :

y : Z −→ C .

(1.16)

In den letzten Jahren hat sich die Zeit-Frequenz-Analyse zu einer wichtigen Teildisziplin der Signalverarbeitung entwickelt, mittels derer Signale mit zeitvariantem Frequenzgehalt untersucht werden können. Zu diesem Zweck werden im letzten Teil des Buches die Kurzzeit-Fourier-Transformation, die Wavelet-Transformation sowie quadratische Zeit-Frequenz-Verteilungen behandelt. Die Darstellung orientiert sich an [KSW08]. Im Anhang findet man einen Vergleich der wichtigsten Transformationen für zeitkontinuierliche und zeitdiskrete Signale sowie Tabellen mit Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-, Laplace- und z-Transformation.

2

Mathematische Grundlagen

Die Betrachtung von Signalen und Systemen kommt als Ingenieurwissenschaft ohne mathematische Hilfsmittel nicht aus. Die Vorlesungen der Höheren Mathematik bauen ein stabiles Fundament auf, das durch Begriffe der Funktionalanalysis erweitert wird. Ausgehend von linearen Vektorräumen werden die für die Signalverarbeitung wichtigen Hilbert-Räume eingeführt und die linearen Operatoren behandelt. Von diesem Punkt aus ergibt sich eine gute Übersicht über die verwendeten mathematischen Methoden und die gemeinsame Basis der Verfahren wird deutlich. Ähnlichkeiten erscheinen nicht zufällig, sie lassen sich begründen. Die kurze Darstellung ersetzt keine Einführung in die Funktionalanalysis. Wer eine vollständige und abgeschlossene Darstellung wünscht, findet sie unter [Heu06, Heu09, HW98, KA78]. Neben den normalen vier Grundrechenarten gibt es weitere „Rechenzeichen“ – die Operatoren. Sie beschreiben, je nach Art, eine Abbildung einer Definitionsmenge in eine Bildmenge. Im Bereich der Signalverarbeitung und Systembeschreibung werden nicht nur reellwertige Funktionen benutzt, sondern auch Funktionen, welche die reellen Zahlen in die komplexe Ebene oder die komplexe Ebene in sich selbst abbilden. Hierzu werden die für die folgende Analyse notwendigen Aussagen zu holomorphen Funktionen in komprimierter Form wiederholt. Beim Erarbeiten dieses Kapitels wird dem Leser eine relativ mathematische Darstellungsweise auffallen. Diese ist nicht zur Abschreckung gedacht, sondern bei der kompakten axiomatischen Vorgehensweise unumgänglich.

2.1

Räume

Man kann die im Folgenden behandelten Räume als abstrakte Erweiterung des aus unserer Erfahrungswelt wohl bekannten dreidimensionalen Euklid’schen Raumes R3 , in dem wir leben, auffassen. Die axiomatische Vorgehensweise der Mathematik ermöglicht eine Übertragung der „typischen“ Eigenschaften dieses Raumes auf „Vektoren“, die aus Zufallsvariablen, Wertefolgen oder gewöhnlichen Funktionen bestehen können. Durch diesen Zusammenhang kann man fast immer auf die Visualisierung durch geometrische Darstellungen zurückgreifen. Abbildung 2.1 zeigt den Weg, der von unstrukturierten Mengen durch die Einführung von algebraischen und metrischen Strukturen hin zu Hilbert-Räumen führt.

2 Mathematische Grundlagen

12

Abbildung 2.1: Zusammenhänge zwischen mathematischen Räumen.

2.1.1

Metrischer Raum

Ein metrischer Raum erlaubt die Berechnung von Abständen zwischen den betrachteten Elementen. Definition 2.1 Metrischer Raum Eine Menge M von Elementen heißt ein metrischer Raum, wenn jedem Elementepaar x, y ∈ M eine reelle Zahl d(x, y) mit folgenden Eigenschaften zugeordnet ist: (M1)

d(x, y) ≥ 0 ,

(M2)

d(x, y) = d(y, x)

(M3)

d(x, y) ≤ d(x, z) + d(z, y) ,

d(x, y) = 0



x=y

z∈M

(Dreiecksungleichung, Abb. 2.2)

Man nennt d(x, y) die Distanz (oder die Metrik) zwischen x und y.

2.1 Räume

13 z   A  A  A  d(x, z) d(y, z)  A  A  A y x  d(x, y) Abbildung 2.2: Veranschaulichung der Dreiecksungleichung.

Beispiel 2.1: Distanz im zweidimensionalen Euklid’schen Raum Im zweidimensionalen Euklid’schen Raum wird die Distanz der durch die Ortsvektoren x = (x1 , x2 )T und y = (y1 , y2 )T dargestellten Punkte wie folgt berechnet: d(x, y) =

p (x1 − y1 )2 + (x2 − y2 )2 .

(2.1) •

2.1.2

Linearer Raum

Der in der Schulzeit geprägte Begriff des Vektors wird hier erweitert. Dabei muss ein Vektor keine „Pfeilgestalt“ besitzen. Vielmehr gilt jetzt allgemein:

Definition 2.2 Linearer Raum, Vektorraum Eine Menge V von Objekten (den Vektoren) heißt linearer Raum oder Vektorraum über dem Körper C (den Skalaren), wenn gilt: 1. Es existiert eine Vektoraddition genannte Operation, die jedem Paar von Vektoren x, y ∈ V einen Vektor x + y ∈ V zuweist, so dass die folgenden Eigenschaften erfüllt sind: (L1)

x+y =y+x

(L2)

x + (y + z) = (x + y) + z

(L3)

Es gibt einen Nullvektor 0 ∈ V, so dass x + 0 = x ,

(L4)

(Kommutativität) (Assoziativität) x∈V.

Zu jedem Vektor x ∈ V gibt es einen inversen Vektor −x ∈ V, so dass gilt x + (−x) = 0.

Die Vektoren bilden also bezüglich der Addition eine kommutative Gruppe.

2 Mathematische Grundlagen

14

2. Es existiert eine skalare Multiplikation genannte Operation, die jedem Skalar c ∈ C und Vektor x ∈ V einen Vektor c x ∈ V zuweist, so dass (L5)

1x = x

(L6)

(c1 c2 ) x = c1 (c2 x)

(L7)

c (x + y) = c x + c y

(Assoziativität)

(c1 + c2 ) x = c1 x + c2 x

(Distributivität)

erfüllt sind. Es sind nicht nur lineare Räume über dem Körper der reellen Zahlen möglich, sondern auch über dem der komplexen Zahlen.

Beispiel 2.2: n-dimensionaler reeller Euklid’scher Raum Beim n-dimensionalen reellen Euklid’schen Raum V = Rn werden die Skalare durch den Körper der reellen Zahlen gebildet. Die Vektoren sind n-Tupel der Form x = (x1 , x2 , . . . , xn )T ,

(2.2)

wobei die xi ∈ R reelle Zahlen sind und die i-te Komponente von x genannt werden. Die Vektoraddition und die skalare Multiplikation werden komponentenweise erklärt: x + y = (x1 + y1 , x2 + y2 , . . . , xn + yn )T , T

c x = (c x1 , c x2 , . . . , c xn ) .

(2.3) (2.4)

Der Nullvektor ist durch 0 = (0, 0, . . . , 0)T gegeben und der zu x inverse Vektor durch −x = (−x1 , −x2 , . . . , −xn )T . • Ein weiterer im Folgenden auftretender Raum ist der Raum der Funktionen einer Zeitvariablen. Beispiel 2.3: Funktionenraum Die Menge aller reellwertigen Funktionen x(t) ∈ V = {x : R −→ R} bildet einen Vektorraum über dem Körper der reellen Zahlen, wenn man die Funktionenaddition und die Multiplikation mit einem Skalar punktweise definiert. • Beispiel 2.4: Zufallsvariablen Wenn C = R den Körper der reellen Zahlen und V die Menge der reellwertigen Zufallsvariablen mit endlichem Mittelwert und endlicher Varianz bezeichnen und c1 x + c2 y für x, y ∈ V, c1 , c2 ∈ C, in gewohnter Weise definiert ist, erhält man ebenfalls einen Vektorraum.

2.1 Räume

15

Eine Zufallsvariable ist eine Variable, die nicht explizit bekannt ist. Ein stochastischer Prozess ist eine Schar von Zufallsvariablen, die durch einen Parameter indiziert wird und deren zeitlicher Verlauf unbekannt ist. Jedoch kann man mit Hilfe der Dichtefunktion dieser Zufallsvariablen Aussagen über die Wahrscheinlichkeit machen, dass der Funktionswert innerhalb eines bestimmten Intervalls liegt. Der Mittelwert und die Varianz einer Zufallsvariablen lassen sich aus der Dichtefunktion ermitteln. Nimmt man zwei Elemente, d. h. zwei beliebige zufällige Funktionen, aus diesem Raum heraus und addiert sie in einer Linearkombination miteinander, so entsteht wieder eine zufällige Funktion mit endlichem Mittelwert und Varianz, also eine Funktion aus V. •

2.1.3

Normierte Räume

Die Bewertung der Länge eines Vektors wird durch eine Norm ermöglicht. Definition 2.3 Normierte Räume Ein linearer Raum V über dem Körper C heißt normierter Raum, wenn jedem Element x ∈ V eine reelle Zahl kxk, die Norm des Elementes x, zugeordnet ist und diese Norm folgende Eigenschaften hat: (N1)

kxk ≥ 0,

kxk = 0

(N2)

kαxk = |α| · kxk ,

(N3)

kx + yk ≤ kxk + kyk



x=0

α∈C

(positive Definitheit) (Homogenität) (Dreiecksungleichung)

Ein normierter Raum V wird durch folgende Definition zu einem metrischen Raum: d(x, y) = kx − yk .

(2.5)

In einem normierten Raum sind durch (2.5) alle Eigenschaften (M1) bis (M3) einer Metrik erfüllt. Die Metrik in (2.5) hat noch die weiteren Eigenschaften: d(x + z, y + z) = d(x, y) , d(αx, αy) = |α| · d(x, y) .

(2.6) (2.7)

Beispiel 2.5: Raum `p (n) In dem Vektorraum Cn aller komplexwertigen Vektoren ist für p ∈ R, 1 ≤ p < ∞, durch ! p1 n X |xi |p kxkp = , x ∈ Cn , (2.8) i=1

eine Norm gegeben. Für p = 2 und x ∈ Rn ergibt kxk2 die Euklid’sche Distanz zum Ursprung. •

2 Mathematische Grundlagen

16 Beispiel 2.6: Raum Lp (I)

Die Menge aller Funktionen x : IR → C, die auf einem Intervall I ⊆ R der reellen Zahlen definiert sind und für die I |x(t)|p dt existiert, wird mit Z kx(t)kp =

 p1 |x(t)| dt p

I

(2.9)

zu einem normierten Raum, der in der Literatur als Lp (I) bezeichnet wird.1 Die Dreiecksungleichung kx(t) + y(t)kp ≤ kx(t)kp + ky(t)kp

(2.10)

folgt aus der Hölder-Ungleichung und wird in Lp (I) als Minkowski-Ungleichung bezeichnet [Heu06]. Für p = 1 ergibt sich der Vektorraum der absolut integrierbaren Funktionen, der später für die Fourier-Transformation eine wichtige Rolle spielen wird. Für p = 2 entsteht der Vektorraum L2 (I) der auf I quadratisch integrierbaren Funktionen. •

2.1.4

Innenproduktraum

Als Nächstes wird der Begriff des Innenproduktes eingeführt. Definition 2.4 Innenproduktraum Ein (reeller bzw. komplexer) linearer Raum V heißt Innenproduktraum, wenn jedem Elementepaar x, y ∈ V eine (reelle bzw. komplexe) Zahl hx, yi, das Innenprodukt der Elemente x und y, mit folgenden Eigenschaften zugeordnet ist: (IP1)

hx, xi ≥ 0 ,

hx, xi = 0 ⇔ x = 0

(IP2)

hx, yi = hy, xi∗

(IP3)

hx + y, zi = hx, zi + hy, zi

(IP4)

hαx, yi = α · hx, yi

Dabei bezeichnet ∗ die komplexe Konjugation. In einem linearen Raum mit Innenprodukt gelten folgende Eigenschaften. 1 Strenggenommen ist L (I) nur für Äquivalenzklassen messbarer Funktionen und deren Lebesgue-Inp tegral definiert [Heu06]. Setzt man jedoch voraus, dass die Funktionen hinreichend gutmütig sind, kann man sich an die gewohnte Vorstellung halten.

2.1 Räume

17

Satz 2.7: Vertauschung des Skalars Aus (IP2) und (IP4) folgt: hα x, yi = α hx, yi = α hy, xi∗ = (α∗ hy, xi)∗ = hα∗ y, xi∗ = hx, α∗ yi . (2.11) • Beispiel 2.8: n-dimensionale Vektoren In dem Vektorraum Cn aller komplexen Vektoren ist hx, yi =

n X

xi yi∗

(2.12)

i=1



ein Innenprodukt. Beispiel 2.9: Raum L2 (I) In dem Vektorraum L2 (I) ist durch Z x(t) y ∗ (t) dt hx(t), y(t)i =

(2.13)

I

ein Innenprodukt gegeben. Aufgrund der Hölder-Ungleichung kann für zwei Funktionen aus L2 (I) stets deren Innenprodukt berechnet werden. • Satz 2.10: Schwarz’sche Ungleichung Es gilt die Schwarz’sche Ungleichung: |hx, yi|2 ≤ hx, xi · hy, yi .

(2.14) •

Beweis 2.11 (Schwarz’sche Ungleichung) Für den Fall y = 0 ist die Aussage klar. Ist jedoch y 6= 0, so ergibt sich nach (IP1) für alle α: 0 ≤ hx + α y, x + α yi = hx, xi + α∗ hx, yi + αhy, xi + |α|2 hy, yi . Setzt man nun hx, yi α=− , hy, yi

(2.15)

(2.16)

so erhält man

0 ≤ hx, xi −

hy, xihx, yi hx, yihy, xi hx, yihy, xi − + hy, yi . hy, yi hy, yi |hy, yi|2

(2.17)

Die Multiplikation mit hy, yi ergibt die Schwarz’sche Ungleichung aus Satz 2.10: 0 ≤ hx, xi · hy, yi − hx, yi · hy, xi . | {z } = |hx,yi|2

(2.18)

2 Mathematische Grundlagen

18 Bemerkung 2.12

Aus obigem Beweis ist sofort ersichtlich, dass in der Schwarz’schen Ungleichung die Gleichheit gilt, falls x + α y = 0 erfüllt ist, d. h. x und y linear abhängig sind. • Auf eine besondere Eigenschaft des inneren Produktes soll noch hingewiesen werden. Die Norm und die Distanz sind nicht negativ und nur dann null, wenn x = 0 bzw. x = y ist. Beim Innenprodukt hx, yi gibt es dagegen viele Vektoren y, für welche bei gegebenem Vektor x das Innenprodukt verschwindet. Dabei sind weder x noch y gleich null. Definition 2.5 Orthogonalität Man bezeichnet zwei Vektoren x und y mit x, y 6= 0 als zueinander orthogonal und schreibt x ⊥ y, falls hx, yi = 0 gilt. Beispielsweise sind die Basisvektoren im kartesischen Koordinatensystem zueinander orthogonal. Das Innenprodukt zweier Vektoren x und y ist dort gegeben durch hx, yi = kxk kyk cos ϑ, wobei ϑ der von x und y eingeschlossene Winkel ist. Das Innenprodukt für x und y wird zu null, wenn ϑ = π2 oder ϑ = 3π 2 ist, also wenn x und y einen rechten Winkel einschließen.

2.1.5

Unitärer Raum

Führt man in einem linearen Raum V mit Innenprodukt die Norm p kxk = hx, xi , x ∈ V ,

(2.19)

ein, dann ist V ein normierter Raum. Es ergibt sich nämlich kx + yk2 = hx + y, x + yi = hx, xi + hx, yi + hy, xi + hy, yi = hx, xi + hx, yi + hx, yi∗ + hy, yi

= hx, xi + 2 0 gilt: ˆM k < ε , kˆ yN − y

N, M > N0 (ε) .

(2.58)

ˆN − y ˆ M umständliDie Notwendigkeit von (2.58) ist leicht zu beweisen. Schreibt man y ˆ N −y + y− y ˆ M und wählt N und M so, dass kˆ ˆ M k ≤ 2ε cher als y yN −yk ≤ 2ε und ky− y ε für N, M > N0 ( 2 ), so gilt mit der Dreiecksungleichung (Definition 2.1 (M3)): ˆ M k ≤ kˆ ˆM k < ε . kˆ yN − y yN − yk + ky − y

(2.59)

Ein für viele Anwendungen wichtiger Satz ist das Projektionstheorem. Satz 2.26: Projektionstheorem ˆ N ∈ V N approximiert werden. Dabei Ein Vektor y ∈ V soll durch einen Vektor y N sei V ein Unterraum des Raumes V höherer Dimension: V N ⊂ V. Die kleinste Distanz zwischen beiden Vektoren und damit die optimale Approximation erhält man für ˆ N ) = ky − y ˆ N k −→ min . d(y, y

(2.60)

ˆ N orthogonal zum opDie minimale Distanz entsteht, falls der Fehlervektor y − y ˆ N und zu allen anderen Vektoren yN ∈ V N des Untertimalen Näherungsvektor y raumes ist: ˆN , y ˆN i = 0 , hy − y

ˆ N , yN i = 0 , hy − y

yN ∈ V N .

ˆ N heißt orthogonale Projektion von y auf den Unterraum V N . Der Vektor y

(2.61) •

Beweis 2.27 (Projektionstheorem) Das Quadrat der Distanz zwischen y ∈ V und einer möglichen Näherung yN ∈ V N ist allgemein: ˆN + y ˆ N − yN k2 ky − yN k2 = ky − y

(2.62)

2

ˆ N k + hy − y ˆN , y ˆ N − yN i = ky − y

ˆ N i + kˆ + hˆ yN − yN , y − y yN − yN k2 2

2

ˆ N k + kˆ = ky − y yN − yN k .

ˆ N erreicht. Die minimale Distanz wird bei festem y für yN = y In Abb. 2.4 ist dies für den Raum R3 dargestellt.

(2.63) (2.64)

2 Mathematische Grundlagen

28

Abbildung 2.4: Beispiel einer orthogonalen Projektion.

2.2

Integraltransformationen

Mit Hilfe von Integraltransformationen werden Signale in andere Darstellungsformen überführt, vgl. [Mer10]. Diese anderen Darstellungen dienen zur besseren Handhabung oder zur besseren Analyse des Informationsgehaltes eines Signals. Die zentrale und entscheidende Größe einer Integraltransformation ist deren Integrationskern, über welchen die Bewertung einzelner Funktionswerte gesteuert wird. Diese Integrationskerne werden im nächsten Abschnitt eingeführt.

2.2.1

Integrationskerne

Bei Integrationskernen handelt es sich um Funktionen, die sowohl von der Zeitvariablen t als auch von einer unabhängigen Zielvariablen s abhängen. Durch Multiplikation des Signals x(t) mit dem Integrationskern θ(s, t) und anschließender Integration gewinnt man daraus die Bildfunktion X(s)2 : Z X(s) = x(t) θ(s, t) dt , s∈S. (2.65) T

Hierbei bezeichnen T den Grundraum im Zeitbereich und S den Grundraum im Bildbereich. Um aus einer transformierten Funktion die ursprüngliche Funktion wiedergewinnen zu können, ist die im Folgenden behandelte Reziprozitätsbedingung wichtig.

2.2.1.1

Reziprozitätsbedingung

Die Transformation in den Bildbereich erfolgte mit Hilfe eines Integrationskerns θ(s, t), wobei t ∈ T die unabhängige Variable vor der Transformation und s ∈ S die unab2 Im

Folgenden wird angenommen, dass alle auftretenden Integrale konvergieren.

2.2 Integraltransformationen

29

hängige Variable danach ist. Man definiert also für eine Zeitfunktion x(t) die Transformierte wie in (2.65) als Z X(s) = x(t) θ(s, t) dt , s∈S. (2.66) T

Mit Hilfe eines zu θ(s, t) reziproken Kernes ϕ(t, s) soll das ursprüngliche Signal rekonstruiert werden können: Z ! x(t) = X(s) ϕ(t, s) ds , t∈T . (2.67) S

Der Kern der Rücktransformation muss nun so bestimmt werden, dass diese Bedingung erfüllt wird. Durch Einsetzen der Definitionsgleichung in die Gleichung der Rücktransformation Z Z Z Z ! 0 0 0 0 x(t) = x(t ) θ(s, t ) ϕ(t, s) dt ds = x(t ) θ(s, t0 ) ϕ(t, s) ds dt0 (2.68) S T

T

S

|

!

{z

}

= δ(t−t0 )

erhält man mit dem Dirac-Impuls δ(t) (Abschn. 3.6.1) die Reziprozitätsbedingung Z θ(s, t0 ) ϕ(t, s) ds = δ(t − t0 ) . (2.69) S

Entsprechend gelangt man zur zweiten Reziprozitätsbedingung Z ϕ(t, s0 ) θ(s, t) dt = δ(s − s0 ) ,

(2.70)

T

die sich analog herleiten lässt. Diese Bedingungen stellen notwendige Forderungen für die Rekonstruierbarkeit eines Signals aus seiner Bildfunktion dar, was bei einer Analyse in der Praxis sinnvoll ist.

2.2.1.2

Selbstreziproke Kerne

Bei selbstreziproken Integrationskernen handelt es sich um ein Paar θ(s, t), ϕ(t, s) von Funktionen für die Hin- und Rücktransformation, für welche die Bedingung ϕ(t, s) = θ∗ (s, t)

(2.71)

gefordert wird. Ein Beispiel für eine Integraltransformation mit selbstreziprokem Kern ist die Fourier-Transformation (vgl. Abschn. 3.5), in welcher mit T = S = R und s = f die Integrationskerne zu θ(f, t) = exp(−j2πf t) ,

(2.72)

ϕ(t, f ) = exp(j2πf t) = θ∗ (f, t)

(2.73)

2 Mathematische Grundlagen

30

gesetzt werden. Die Reziprozitätsbedingung ist für die Fourier-Transformation erfüllt: Z∞

Z∞

0

θ(f, t ) ϕ(t, f ) df = −∞

2.2.1.3

−∞

exp(j2πf (t − t0 )) df = δ(t − t0 ) .

(2.74)

Parseval’sches Theorem

In diesem Abschnitt beweisen wir das Parseval’sche Theorem, welches für viele Anwendungen eine entscheidende Rolle spielt. In Abhängigkeit des transformierenden Kerns ergeben sich zentrale Eigenschaften verschiedener Transformationen. Satz 2.28: Parseval’sches Theorem Werden Signale mit Hilfe von selbstreziproken Integrationskernen transformiert, so ist das Innenprodukt zweier Signale invariant gegenüber der Integraltransformation, d. h. hx(t), y(t)it = hX(s), Y (s)is .

(2.75)

Das Innenprodukt zweier Signale ist als Integral über deren Produkt definiert (vgl. Abschn. 3.1.2) und bewertet deren Ähnlichkeit. • Beweis 2.29 (Parseval’sches Theorem) Man rechnet hX(s), Y (s)is =

Z

X(s) Y ∗ (s) ds

(2.76)

S

Z Z Z = S T

Z Z = T

x(t) θ(s, t) y ∗ (t0 ) θ∗ (s, t0 ) dt dt0 ds

T

x(t) y ∗ (t0 )

T

Z S

| Z Z = T

(2.77)

θ(s, t) θ∗ (s, t0 ) ds dt dt0 | {z }

(2.78)

= ϕ(t0 ,s)

{z

}

= δ(t−t0 )

x(t) y ∗ (t0 ) δ(t − t0 ) dt0 dt =

T

= hx(t), y(t)it .

Z

x(t) y ∗ (t) dt

(2.79)

T

(2.80)

Setzt man im Parseval’schen Theorem y(t) = x(t), so folgt kx(t)k = kX(s)k ,

(2.81)

da es sich bei den Energiesignalen um einen unitären Raum handelt, vgl. Abschn. 3.1.2. Dies bedeutet, dass eine Integraltransformation mit selbstreziprokem Kern, welche die Reziprozitätsbedingung erfüllt, die Energie eines Signals nicht verändert.

2.2 Integraltransformationen

2.2.1.4

31

Faltungskerne

Bei Faltungskernen handelt es sich um Integrationskerne, die lediglich von der Differenz t − s bzw. s − t abhängen. Dies führt auf vereinfachte Gleichungen für die Hinund die Rücktransformation: Z∞ X(s) = −∞ Z∞

x(t) = −∞

x(t) θ(s − t) dt = x(t) ∗ θ(t) ,

(2.82)

X(s) ϕ(t − s) ds = X(s) ∗ ϕ(s) .

(2.83)

Durch Fourier-Transformation der beiden Faltungsintegrale folgt im Vorgriff auf Abschn. 3.5 die Multiplikation der Transformierten: Fs {X(s)} = Xt (f ) Θ(f ) ,

Ft {x(t)} = Xs (f ) Φ(f ) .

(2.84) (2.85)

Für die erfolgreiche Signalrekonstruktion erhält man daher die Bedingung Θ(f ) · Φ(f ) = 1 .

(2.86)

Ein Beispiel für eine Integraltransformation mit Faltungskern ist die Hilbert-Transformation, die in Abschn. 4.6 eingeführt wird. Bei dieser Transformation verwendet man Θ(f ) = −j sign(f ) ,

Φ(f ) = j sign(f ) = Θ∗ (f )

(2.87) (2.88)

und dementsprechend θ(s − t) =

1 , π (s − t)

ϕ(t − s) = −

2.2.2

1 = θ(s − t) . π (t − s)

(2.89) (2.90)

Zweidimensionale Transformationen

Die Integraltransformation eines zweidimensionalen Signals x(t1 , t2 ) ist definiert als Z Z X(s1 , s2 ) = x(t1 , t2 ) θ(s1 , s2 , t1 , t2 ) dt1 dt2 , s1 , s2 ∈ S . (2.91) T

T

Die Rekonstruktion solch eines Signals ergibt sich analog als Z Z x(t1 , t2 ) = X(s1 , s2 ) ϕ(t1 , t2 , s1 , s2 ) ds1 ds2 , t1 , t2 ∈ T . S S

(2.92)

2 Mathematische Grundlagen

32

Eine Erweiterung von Funktionen einer Variablen auf Funktionen von zwei Variablen erstreckt sich ebenso auf die Intergrationskerne, welche dadurch als Funktionen von vier Variablen zu definieren sind. Alle Eigenschaften und Gleichungen ergeben sich durch eine dementsprechende Erweiterung. Somit lauten die Reziprozitätsbedingungen bei Vorhandensein zweier Variablen: Z Z ! θ(s1 , s2 , t01 , t02 ) ϕ(t1 , t2 , s1 , s2 ) ds1 ds2 = δ(t1 − t01 ) · δ(t2 − t02 ) , (2.93) S S

Z Z T

!

θ(s1 , s2 , t1 , t2 ) ϕ(t1 , t2 , s01 , s02 ) dt1 dt2 = δ(s1 − s01 ) · δ(s2 − s02 ) .

(2.94)

T

Als Spezialfall können bei zwei unabhängigen Variablen die Kerne faktorisiert werden. Sie setzen sich dann aus dem Produkt zweier einfacher Kerne zusammen, was sich mathematisch wie folgt ausdrücken lässt: θ(s1 , s2 , t1 , t2 ) = θ1 (s1 , t1 ) · θ2 (s2 , t2 ) ,

(2.95)

ϕ(t1 , t2 , s1 , s2 ) = ϕ1 (t1 , s1 ) · ϕ2 (t2 , s2 ) .

(2.96)

Als Beispiel eines faktorisierbaren Kerns dient die zweidimensionale Fourier-Transformation, in der sich mit t = (t1 , t2 )T und f = (f1 , f2 )T die Korrespondenzen Z∞ Z∞ X(f ) = X(f1 , f2 ) =

x(t1 , t2 ) e−j2π(f1 t1 +f2 t2 ) dt1 dt2 ,

(2.97)

X(f1 , f2 ) ej2π(f1 t1 +f2 t2 ) df1 df2

(2.98)

−∞ −∞

Z∞ Z∞ x(t) = x(t1 , t2 ) = −∞ −∞

ergeben. Zweidimensionale Kerne finden in der Bildverarbeitung und allgemeiner bei der Bearbeitung optischer Signale Anwendung. In diesem Fall bezeichnen die Variablen t1 und t2 typischerweise örtliche Dimensionen in der Ebene, für die später anstelle von t = (t1 , t2 )T der Ortsvektor x = (x, y)T verwendet wird. Die Variablen f1 und f2 im Bildbereich sind dann die zugehörigen Ortsfrequenzen fx bzw. fy , die im Ortsfrequenzvektor f = (fx , fy )T zusammengefasst werden.

2.3

Operatoren

Abbildungen wurden bisher durch Funktionen y = f (x) dargestellt. Dabei wurde jedem x ∈ X eindeutig ein y ∈ Y zugeordnet. Meist wurde implizit davon ausgegangen, dass X und Y Mengen etwa der Form R, C, R3 usw. sind, d. h. die Elemente x bzw. y entweder reelle oder komplexe Zahlen oder Vektoren der reellen oder komplexen Zahlen sind. In Abschnitt 3.1 über die Funktionenräume wird gezeigt, dass Elemente von

2.3 Operatoren

33

Räumen ohne Weiteres etwas anderes sein können, z. B. Funktionen. Zur Abbildung eines beliebigen Elements auf ein anderes beliebiges Element ist der Funktionsbegriff auf den Begriff des Operators zu erweitern.

2.3.1

Lineare Operatoren

Definition 2.11 Linearer Operator Ein Operator A : X −→ Y ist eine Rechenvorschrift, die jedem Element x ∈ X ein Element y = Ax = A{x} ∈ Y zuweist, wobei X und Y jeweils Vektorräume mit demselben Skalarkörper C sind. Lineare Operatoren haben folgende Eigenschaften: (O1) A{x + y} = A{x} + A{y} , (O2) A{ax} = a A{x} ,

(Additivität)

a∈C.

(Homogenität)

Die Rechenregeln für das Rechnen mit linearen Operatoren sind wie folgt gegeben: (O3) A (BC) = (AB) C

(Assoziativität)

(O4) aAB = (aA) B = A (aB) ,

a∈C

(O5) A (B + C) = AB + AC (O6) I{x} = x ,

I : Einsabbildung

(O7) A{0} = 0 ,

0 : Nullelement .

(Distributivität)

Hier bezeichnet AB die Hintereinanderausführung „A nach B“: (AB){x} = A{B{x}} .

(2.99)

Eine geeignete Voraussetzung für die Hintereinanderausführung ist X = Y. Bemerkung 2.30 1. Im Allgemeinen gilt für Operatoren nicht das Kommutativgesetz (z. B. ist bei der Matrixmultiplikation AB 6= BA). 2. Ist die Menge Y skalar, also das Element y = A{x} ∈ Y eine reelle oder komplexe Zahl, so spricht man nicht von einem Operator, sondern von einem Funktional (vgl. Tabelle 2.1). 3. Ist die Menge X skalar, d. h. das Element x ∈ X eine reelle oder komplexe Zahl, so spricht man von einer Funktion (vgl. Tabelle 2.1). 4. Häufig sind die Elemente Vektoren im klassischen Sinne. Dann kann der lineare Operator in Form einer Matrix angegeben werden. •

2 Mathematische Grundlagen

34

Tabelle 2.1: Elemente der einzelnen Abbildungen.

Operator:

Menge X Allgemein

Menge Y Allgemein

Funktional:

Allgemein

Skalar

Funktion:

Skalar

Allgemein

Beispiel 2.31: Funktional Eine Funktion x(t) wird über das Intervall [− T2 , T2 ] gemittelt. Die Rechenvorschrift für den Mittelwert x ist ein Funktional auf einem Funktionenraum: 1 x = T

T /2 Z

x(t) dt .

(2.100)

−T /2

Bei der Beurteilung von Messergebnissen werden der Stichprobenmittelwert x ˆ und die Stichprobenvarianz s2 gebildet. Die Rechenvorschriften dafür sind Funktionale auf Stichproben (x1 , . . . , xn ): n

x ˆ =

1X xi , n i=1

n

s2 =

1 X (xi − x ˆ)2 . n − 1 i=1

(2.101) •

Beispiel 2.32: Matrixoperator Ein wichtiges Beispiel für einen Operator ist dadurch gegeben, dass man als Vektorräume X = Rn bzw. Y = Rn wählt. Man rechnet also mit Vektoren im üblichen Sinne. Es sei eine beliebige Matrix A ∈ Rn×n vorgegeben. Man kann nun mit Hilfe der Matrix A einen Operator A : X → Y definieren, indem man A{x} = A x

(2.102)

setzt. Somit ist die gewöhnliche Matrixabbildung letztlich auch ein Operator. Diesen werden wir im folgenden Text noch oft als Beispiel heranziehen. • Des Weiteren werden für Operatoren die folgenden Definitionen verwendet: Definition 2.12 Stetigkeit Ein linearer Operator A : X → Y zwischen normierten Räumen X , Y heißt stetig, wenn gilt: lim A{εx0 } = lim εA{x0 } = 0 ,

ε→0

ε→0

x0 ∈ X .

(2.103)

2.3 Operatoren

35

Definition 2.13 Beschränktheit Ein linearer Operator A : X → Y zwischen normierten Räumen X , Y heißt beschränkt, wenn für ein M ≥ 0 gilt: kA{x}k ≤ M kxk ,

x∈X.

(2.104)

Definition 2.14 Adjungierter Operator In Hilbert-Räumen gibt es zu einem linearen Operator A einen adjungierten Operator A+ : Y → X , für den für alle zugelassenen x ∈ X und y ∈ Y gilt: hA{x}, yi = hx, A+ {y}i .

(2.105)

Ein adjungierter Operator A+ ist nicht mit der adjunkten Matrix adj(A) zu verwechseln, die zur Invertierung herangezogen wird. In der Matrizenschreibweise ergibt sich aus Definition 2.14 sofort die Rechenregel, wie von einer Matrix A die adjungierte Matrix A+ gebildet wird: oder (aij )+ = (aji )∗ .

A+ = AT∗

(2.106)

Für reelle Matrizen gilt A+ = AT

oder (aij )+ = (aji ) .

(2.107)

Die Gleichungen (2.106) und (2.107) sind mittels (2.105) leicht zu zeigen: hA x, yi = (A x)T y∗ = xT AT y∗ = xT (AT∗ y)∗ = hx, AT∗ yi !

+

= hx, A yi .

2.3.1.1

(2.108) (2.109)

Eigenwerte und Eigenvektoren

In diesem Abschnitt betrachten wir einen Matrixoperator, wie er in Beispiel 2.32 eingeführt wurde. Dieser Operator wirkt auf Vektoren x ∈ Cn durch Linksmultiplikation, d. h. es ist A{x} = A x. Vielfach sind, auch für allgemeine Operatoren, Vektoren von Interesse, die bei Anwendung eines Operators A in ein Vielfaches von sich selbst übergehen. Aus diesem Grund definiert man die folgenden Begriffe: Definition 2.15 Eigenwerte und Eigenvektoren eines Operators Gegeben sei ein Operator A : X → X . Ein Skalar λ heißt Eigenwert des Operators A, falls ein x ∈ X , x 6= 0, existiert mit A{x} = λ x .

(2.110)

2 Mathematische Grundlagen

36

Dieses x ∈ X heißt dann Eigenvektor zum Eigenwert λ. Ist der Operator A ein Matrixoperator, d. h. A : Cn → Cn , A{x} = A x mit A ∈ Cn×n , so spricht man auch von einem Eigenwert der Matrix A bzw. einem Eigenvektor der Matrix A. Die Berechnung der Eigenwerte einer Matrix lässt sich auf die Bestimmung der Nullstellen einer geeigneten Gleichung zurückführen: Satz 2.33: Eigenwerte eines Matrixoperators Ist A : Cn → Cn , A{x} = A x, ein Matrixoperator, so erhält man die Eigenwerte als die Nullstellen der Gleichung det(A − λ I) = 0 .

(2.111)

Somit ist nur noch eine algebraische Gleichung zu lösen.



Beweis 2.34 (Eigenwerte eines Matrixoperators) Die Eigenwerte erfüllen nach Voraussetzung die Gleichung A x = λ x. Wegen A x = λ x ⇔ (A − λ I) x = 0 sind genau jene Werte λ Eigenwerte, für die ein x 6= 0 existiert, welches diese Gleichung erfüllt. Dieses x 6= 0 existiert genau dann, wenn die Matrix (A − λ I) nicht invertierbar ist, was mit der Bedingung det(A − λ I) = 0 gleichbedeutend ist. Somit ist λ also ein Eigenwert der Matrix A, falls λ die behauptete Gleichung erfüllt.

2.3.1.2

Eigenvektoren adjungierter Matrixoperatoren

Eine Matrix A und ihre adjungierte Matrix A+ haben dieselben Eigenwerte λk , die aus der Gleichung det(A − λ I) = det(A+ − λ I) = 0

(2.112)

berechnet werden [Kro91]. Als Nächstes sollen die Eigenvektoren von A und A+ untersucht werden. Wir betrachten hierzu zwei voneinander verschiedene Eigenwerte λi 6= λk mit zugehörigen Eigenvektoren xi von A und yk von A+ . Dann gilt: A xi = λi xi

,

A+ yk = λk yk .

(2.113)

Durch Multiplikation der ersten transponierten Gleichung mit yk∗ von rechts und der zweiten konjugiert komplexen Gleichung mit xT i von links erhält man: T ∗ T ∗ xT i A yk = λi xi yk

,

+∗ ∗ ∗ xT yk = λ∗k xT i A i yk .

(2.114)

Die Differenz der beiden Gleichungen lautet T +∗ ∗ xT ) yk∗ = (λi − λ∗k ) xT i (A − A i yk .

(2.115)

2.3 Operatoren

37

Die Differenz verschwindet jedoch, da AT = A+∗ gilt. Daraus folgt dann: λi 6= λ∗k

=⇒

∗ xT i yk = 0 .

(2.116)

Die Eigenvektoren yk des adjungierten Operators A+ stehen senkrecht auf den Eigenvektoren xi des Operators A. Definition 2.16 Selbstadjungierter Operator Ein Operator A heißt selbstadjungiert, wenn A = A+

(2.117)

gilt. Ein solcher Operator wird auch als Hermite’scher Operator bezeichnet.

Satz 2.35: Eigenvektoren selbstadjungierter Matrixoperatoren Bei selbstadjungierten Matrixoperatoren A = A+ sind die Eigenvektoren verschiedener Eigenwerte untereinander orthogonal. •

Ein anderer wichtiger Sonderfall sind Operatoren, für die A+ A = I und somit A+ = A−1 gilt: Definition 2.17 Unitärer Operator Ein Operator A heißt unitär, wenn A+ A = AA+ = I bzw. A+ = A−1 gilt. Es folgt dann: kA{x}k = kxk ,

hA{x}, A{y}i = hx, yi .

(2.118)

Unitäre Operatoren lassen die Norm und das innere Produkt unverändert. Bei Matrixoperatoren erhält man (2.118) sofort: hA x, A yi = xT AT · A∗ y∗ = xT (AT∗ A)∗ y∗ = xT y∗ = hx, yi . | {z }

(2.119)

=I

Beispiel 2.36: Unitäre Matrixoperatoren Standardbeispiele für unitäre Operatoren in Matrixschreibweise sind die Drehung eines Vektors und die Koordinatentransformation in eine neue orthonormale Basis. • Nach der Behandlung der Eigenschaften von allgemeinen Operatoren und von Matrixoperatoren folgt nun eine Vorstellung spezieller Typen von Operatoren.

2 Mathematische Grundlagen

38

2.3.2

Typen von linearen Operatoren

Die folgenden Unterabschnitte beschreiben häufig vorkommende lineare Operatoren.

2.3.2.1

Lineare Vektortransformation

Hierbei wird ein Vektor im klassischen Sinn auf einen anderen Vektor abgebildet. Technisch gesehen kann der Vektor x eine gerichtete Ursache darstellen, die eine gerichtete Wirkung y erzeugt. Die Grundform lautet dann: y = Ax.

(2.120)

Beispiel 2.37: Lineare Vektortransformation Wenn x die elektrische Feldstärke in einem anisotropen Medium darstellt, so kann y die dielektrische Verschiebung beschreiben. •

2.3.2.2

Integraloperator

Der Integraloperator wird durch die Gleichung Zb



k(t, s) x(s) ds

y(t) = a

y = A{x}

(2.121)

dargestellt. Die Gleichung kann, je nach gewähltem Integrationskern k(t, s), eine Integraltransformation darstellen oder das Ausgangssignal eines Systems beschreiben, dem das Eingangssignal x(s) zugeführt wird. Beispiel 2.38: Integraloperator Für die inverse Fourier-Transformation wählt man: s=f,

x(s) = Y (f ) ,

k(t, f ) = ej2πf t ,

a = −∞ ,

b = ∞.

(2.122)

Damit erhält man: Z∞ y(t) =

Y (f ) ej2πf t df .

−∞

2.3.2.3

(2.123) •

Differentialoperator

Ein Beispiel eines Differentialoperators ist durch die Gleichung a0 y (n) + a1 y (n−1) + · · · + an y = b0 x(n) + b1 x(n−1) + · · · + bn x , A{y} = B{x}

(2.124) (2.125)

2.3 Operatoren

39

mit dk y(t) dtk

y (k) =

x(k) =

und

dk x(t) dtk

(2.126)

definiert. Solche Differentialgleichungen sind die Grundlage für die Beschreibung des Zeitverhaltens von linearen Prozessen und Systemen.

2.3.3

Darstellungsmatrix

Mit Hilfe von orthonormalen Basen lassen sich lineare Operatoren in Matrixform mittels der Darstellungsmatrix schreiben. In der Matrizenrechnung beziehen sich die Komponenten eines Elements immer auf die Zerlegung mittels einer orthonormalen Basis.

2.3.3.1

Lineare Vektortransformation

Im Fall endlichdimensionaler Räume werden die Vektoren x und y nach (2.41) mittels einer orthonormalen Basis {e1 , e2 , . . . , eN } in ihre Komponenten zerlegt: x = (x1 , x2 , . . . , xN )T ,

xi = hx, ei i ,

(2.127)

y = (y1 , y2 , . . . , yN )T ,

yi = hy, ei i .

(2.128)

Dann lässt sich der Operator A als Darstellungsmatrix A = (aij ) angeben. Die Gleichung y = A x hat für x nur dann eine eindeutige Lösung, wenn A−1 existiert, also det(A) 6= 0 gilt bzw. die Matrix A den vollen Rang besitzt.

2.3.3.2

Integraloperator

Beim Integraloperator werden für die Funktionen x(s) ∈ L2 (a, b) und y(t) ∈ L2 (a, b) jeweils eine Basis {u1 (s), u2 (s), . . .} und {v1 (t), v2 (t), . . .} gewählt. Dann gilt: Zb

∞ X

x(s) =

xj uj (s) ,

xj =

j=1

y(t) =

∞ X

a

Zb yi vi (t) ,

i=1

yi = a

x(s) u∗j (s) ds = hx(s), uj (s)i ,

y(t) vi∗ (t) dt = hy(t), vi (t)i .

(2.129)

(2.130)

Setzt man (2.121) in (2.130) ein, so folgt Zb yi = a

 b  Z  k(t, s) x(s) ds vi∗ (t) dt . a

(2.131)

2 Mathematische Grundlagen

40 Einsetzen von (2.129) in (2.131) ergibt:     Zb Zb ∞ X yi =  k(t, s)  xj uj (s) ds vi∗ (t) dt

=

∞ X

(2.132)

j=1

a

a



Zb

xj 

j=1

a

 b   Z ∞ X  k(t, s) uj (s) ds vi∗ (t) dt = aij xj . a

|

(2.133)

j=1

{z

}

= aij

Daraus folgt die Darstellungsmatrix A = (aij ) ,

i, j ∈ N .

(2.134)

Insgesamt kann man also schreiben: y = Ax.

(2.135)

Der Vorteil der Darstellung des Integraloperators in Matrixform besteht darin, dass daraus ein lineares Gleichungssystem resultiert.

2.3.3.3

Differentialoperator

Ausgehend von der Differentialgleichung (2.124) werden die Funktionen x(t) und y(t) im Funktionenraum L2 (− T20 , T20 ) in Fourier-Reihen entwickelt (vgl. Abschnitt 3.4): x(t) =

∞ X

xk Fk (t) ,

k=−∞

y(t) =

∞ X

1 Fk (t) = √ ej2πkt/T0 , T0

yk Fk (t) .

(2.136)

(2.137)

k=−∞

Durch Einsetzen in die Differentialgleichung (2.124) ergibt sich:  X  ∞ dn−1 dn yk Fk (t) a0 n + a1 n−1 + · · · + an dt dt k=−∞  X  ∞ dn−1 dn xk Fk (t) = b0 n + b1 n−1 + · · · + bn dt dt

(2.138)

k=−∞

oder ∞ X

 dn−1 dn yk a0 n + a1 n−1 + · · · + an Fk (t) dt dt k=−∞   ∞ X dn dn−1 = xk b0 n + b1 n−1 + · · · + bn Fk (t) . dt dt 

k=−∞

(2.139)

2.3 Operatoren

41

Die Anwendung des Differentialoperators auf Fk (t) mit f0 = di 1 Fk (t) = √ dti T0

 j

2π k T0

i

1 T0

ergibt

ej2πkt/T0 = (j2πf0 k)i Fk (t)

(2.140)

für i ∈ {1, . . . , n}. Einsetzen in die Differentialgleichung ergibt: ∞ X k=−∞

=

 yk a0 (j2πf0 k)n + a1 (j2πf0 k)n−1 + · · · + an Fk (t) ∞ X

k=−∞

 xk b0 (j2πf0 k)n + b1 (j2πf0 k)n−1 + · · · + bn Fk (t) .

(2.141) (2.142)

Mittels Koeffizientenvergleich folgt: n P

yk = gk = i=0 n P xk

bi (j2πf0 k)n−i .

(2.143)

ai (j2πf0 k)n−i

i=0

Damit gilt yk = gk xk . Die Darstellungsmatrix ist eine Diagonalmatrix: A = (aij )

2.3.4

mit

aij = δij gi .

(2.144)

Verschiebungsoperator

In Abtastsystemen stehen Werte nur zu bestimmten Zeitpunkten zur Verfügung. So ist es möglich, einen Abtastwert um einen oder mehrere Abtastzeitpunkte zu verschieben. Hierbei entspricht die formale Multiplikation eines Signalwertes mit dem Verschiebungsoperator q einer Zeitverzögerung um eine Abtastzeit tA . Analog entspricht eine Zeitverzögerung um n Schritte einer Multiplikation mit q n . Eine negative Zeitverzögerung, d. h. ein Erscheinen eines Signalwertes um eine oder mehrere Abtastzeiten früher, wird mittels negativer Exponenten gekennzeichnet. Beispiel 2.39: Zeitverzögerung Ein abgetastetes Signal xn = x(ntA ) wird um zwei Abtastschritte verzögert. Das daraus entstehende Signal yn = y(ntA ) lässt sich durch yn = q 2 · xn

(2.145)

charakterisieren. Besteht ein Signal zn = z(ntA ) aus der Addition des nichtverzögerten und des um einen Abtastschritt verzögerten Signals xn , so kann man es durch zn = xn + q · xn = (1 + q) · xn

(2.146)

2 Mathematische Grundlagen

42 darstellen. Entsprechend ist die Bedeutung von wn = (1 + 2q + q 2 + q 4 ) · xn zu interpretieren.

2.4

(2.147) •

Holomorphe Funktionen

Da die „andere Welt“ der später eingeführten Transformationen, also der Bildbereich, fast ausschließlich im komplexen Körper C liegt, werden an dieser Stelle wichtige Hilfsmittel aus der Theorie der holomorphen (d. h. in jedem Punkt komplex differenzierbaren) Funktionen in Kurzform wiederholt. Für eine ausführliche Einführung in diese Theorie sei auf die reichliche Literatur verwiesen, z. B. [Jä96]. Die hier vorgestellten Sätze und Definitionen stellen ein Gerüst dar, welches für die in diesem Buch benötigten Zwecke ausreichend ist. Der Vollständigkeit halber sind für die Sätze auch Beweise angegeben, die bei Interesse nachvollzogen werden können. Für den ausschließlich an der Systemtheorie interessierten Leser ist es jedoch ausreichend, die zentralen Resultate und Berechnungsformeln zu kennen, die als Sätze formuliert sind.

2.4.1

Cauchy’sche Integralformel

Mit der komplexen Größe z sei f (z) eine in einem einfach zusammenhängenden beschränkten Gebiet G, dessen Rand stückweise glatt sei, holomorphe Funktion, die auf G ∪ ∂G, d. h. auf dem Gebiet G und seinem Rand ∂G, stetig ist. Wird f (z) entlang eines geschlossenen, stückweise glatten Integrationsweges C ⊂ G integriert, dann gilt der Cauchy’sche Integralsatz I f (z) dz = 0 . (2.148) C

Somit verschwindet für eine holomorphe Funktion das Wegintegral über einen geschlossenen Integrationsweg. Bemerkung 2.40 1. Zur Erinnerung sei erwähnt, dass eine Abbildung φ : [a, b] → C, φ(t) = φR (t)+ jφI (t), deren Real- und Imaginärteil stetig sind, als stückweise glatt bezeichnet wird, falls eine Einteilung a = t0 < t1 < · · · < tn = b existiert, sodass sowohl φR (t) als auch φI (t) in jedem Teilintervall [tk , tk+1 ] stetig differenzierbar sind ∂ ∂ ∂ und ∂t φ(t) = ∂t φR (t) + j ∂t φI (t) 6= 0 gilt.

2. Als Vorstellung für spätere Anwendungen und Aussagen kann beispielsweise ein Kreisweg mit Radius ρ dienen, welcher die Darstellung [0, 2π] → ρ ejt besitzt. Die formulierten Sätze lassen sich damit oft leichter interpretieren. •

2.4 Holomorphe Funktionen

43

Im Folgenden bezeichne Int{G} das Innere von G. Die um die Singularität bei z = z0 , z0 ∈ Int{G}, erweiterte Funktion f (z) z − z0

(2.149)

ist im gesamten Gebiet G außer im Punkt z0 holomorph, falls die Funktion f (z) in G holomorph ist. Sei C eine stückweise glatte, positiv orientierte und einmal durchlaufene Jordan-Kurve, die ganz in G liege, z0 im Inneren enthält und deren Inneres Int{C} ebenfalls in G liegt. Hierbei ist eine Jordan-Kurve eine Kurve, bei der die Abbildung W : t → z(t) bijektiv ist und bei der sowohl W als auch W −1 stetig sind. Da z0 nach Voraussetzung im Inneren von C liegt, liegt der Kreis-Weg Wρ : |z − z0 | = ρ für ein hinreichend kleines ρ ebenfalls ganz im Inneren von C. Somit folgt I I f (z) f (z) dz = dz . (2.150) z − z0 z − z0 C



Unter Beachtung von  I 2πj (ξ − z0 )K dξ = 0

für K = −1 sonst

(2.151)



und mittels der Zerlegung

folgt

f (z) f (z0 ) f (z) − f (z0 ) = + z − z0 z − z0 z − z0 I C

f (z) dz = 2πjf (z0 ) + z − z0

I Wρ

f (z) − f (z0 ) dz . z − z0

(2.152)

(2.153)

Da f (z) als holomorph vorausgesetzt war, ist f (z) insbesondere stetig, woraus die Existenz eines Radius ρ = ρ(ε) mit |f (z) − f (z0 )| < ε für alle z ∈ Wρ folgt. Somit kann das rechte Integral wie folgt abgeschätzt werden: I f (z) − f (z0 ) dz ≤ 2πε . (2.154) z − z0 Wρ Beim Grenzübergang ε → 0 geht dieses Integral gegen null, woraus I 1 f (z) f (z0 ) = dz 2πj z − z0

(2.155)

C

folgt. Dieses Resultat wird als Cauchy’sche Integralformel bezeichnet und im folgenden Satz zusammengefasst.

2 Mathematische Grundlagen

44 Satz 2.41: Cauchy’sche Integralformel

Sei f (z) eine in einem einfach zusammenhängenden Gebiet G ⊂ C holomorphe Funktion. Dann gilt für alle stückweise glatten, positiv orientierten und einmal durchlaufenen Jordan-Kurven Γ ⊂ G und alle Punkte z0 aus dem Inneren von Γ die Cauchy’sche Integralformel: I 1 f (z) f (z0 ) = dz . (2.156) 2πj z − z0 Γ

Nach [Zei13, S. 536] gilt für die k-te Ableitung von f (z): I f (z) k! (k) dz . f (z0 ) = 2πj (z − z0 )k+1

(2.157) •

Γ

Bemerkung 2.42 (Cauchy’sche Integralformel) Die Cauchy’sche Integralformel besagt, dass die Werte einer holomorphen Funktion f (z0 ) im Inneren eines einfach zusammenhängenden Gebietes G vollständig durch die Werte von f (z) auf dem Rand bestimmt sind. Der Integrationsweg umschließt dabei den Punkt z0 . •

2.4.2

Laurent-Reihe

In diesem Abschnitt wird die Entwicklung einer komplexen Funktion in ihre LaurentReihe hergeleitet. Zuerst wird hierzu der Begriff der Laurent-Reihe definiert. Definition 2.18 Laurent-Reihe Eine Reihe der Form f (z) =

∞ X n=−∞

an (z − z0 )n =

∞ X n=0

an (z − z0 )n +

∞ X n=1

a−n (z − z0 )−n

(2.158)

heißt Laurent-Reihe. Sie heißt konvergent, wenn beide auftretenden Summen konvergieren. Eine Laurent-Reihe hat, wie man sich unter Beachtung der geometrischen Reihe überlegt, als Konvergenzgebiet einen Kreisring der Form {z ∈ C : r+ < |z − z0 | < r− } .

(2.159)

In Abschnitt 6.3.2, der sich mit dem Existenzbereich der z-Transformierten befasst, wird eine ähnliche Überlegung ausführlich vorgeführt.

2.4 Holomorphe Funktionen

45

Abbildung 2.5: Integrationswege.

Es sei nun eine komplexe Funktion gegeben, die auf solch einem Kreisgebiet {z ∈ C : r+ < |z − z0 | < r− } holomorph ist. Zuerst wählt man ρ1 , ρ2 ∈ R mit der Eigenschaft r+ < ρ2 < ρ1 < r− und definiert die positiv orientierten Wege Γ1 : |z − z0 | = ρ1 und Γ2 : |z − z0 | = ρ2 . Nun bezeichnen wir noch den äußeren Weg mit C1 , C1 = Γ1 , und die Umorientierung des inneren Weges mit C2 , C2 = −Γ2 . Schneidet man den Kreisring mit einer Strecke P Q, P ∈ C1 , Q ∈ C2 , auf und bezeichnet die Schnittufer mit C3 bzw. C4 , vgl. Abb. 2.5, dann ist Γ : C2 + C3 + C1 + C4

(2.160)

eine stückweise glatte und mathematisch positiv orientierte Jordan-Kurve. In diesem Fall folgt aus der Cauchy’schen Integralformel I 1 f (ξ) f (z) = dξ , z ∈ Int{Γ} . (2.161) 2πj ξ−z Γ

Beachtet man noch I I f (ξ) f (ξ) dξ = − dξ , ξ−z ξ−z C3

(2.162)

C4

so folgt   I I f (ξ) f (ξ) 1  · dξ + dξ  . f (z) = 2πj ξ−z ξ−z C1

(2.163)

C2

Definieren wir die Funktionen w1 (z) und w2 (z) als das erste bzw. das zweite der beiden Integrale, so sind also noch explizite Ausdrücke dafür zu bestimmen. 1. Da die Funktion f (z) auf C1 holomorph ist, ist sie insbesondere stetig. Somit ist w1 (z) in |z − z0 | < r− eine holomorphe Funktion und kann deshalb in eine

2 Mathematische Grundlagen

46

Potenzreihe entwickelt werden. Durch Verwendung der geometrischen Reihe und unter Beachtung der Tatsache, dass die Bedingungen zur Vertauschung von Integration und Summation erfüllt sind, folgt diese Potenzreihe wegen |z − z0 | < |ξ − z0 | zu w1 (z) =

I

1 2πj

f (ξ) ·

1 dξ ξ − z0 − (z − z0 )

(2.164)

f (ξ) ·

1 1 · dξ 0 ξ − z0 1 − z−z ξ−z0

(2.165)

f (ξ) ·

n ∞  X 1 z − z0 · dξ ξ − z0 n=0 ξ − z0

(2.166)

f (ξ) ·

∞ X (z − z0 )n dξ (ξ − z0 )n+1 n=0

(2.167)

C1

I

1 = 2πj

C1

=

I

1 2πj

C1

=

I

1 2πj

C1

I ∞ ∞ X X f (ξ) 1 n dξ · (z − z ) = an (z − z0 )n , = 0 n+1 2πj (ξ − z ) 0 n=0 n=0

(2.168)

C1

wobei sich die Koeffizienten aus I f (ξ) 1 dξ an = 2πj (ξ − z0 )n+1

(2.169)

C1

berechnen. 2. Betrachten wir w2 (z) in |z − z0 | > r+ , so ist dort |ξ − z0 | < |z − z0 |, wodurch unter Anwendung der geometrischen Reihe wie im ersten Schritt ∞ X (ξ − z0 )n 1 =− ξ−z (z − z0 )n+1 n=0

(2.170)

im Bereich |z − z0 | > r+ folgt. Analog zu obiger Vorgehensweise erhält man hier die Darstellung w2 (z) = −

∞ X

a−n (z − z0 )−n

(2.171)

f (ξ) dξ . (ξ − z0 )−n+1

(2.172)

n=1

mit a−n

1 = 2πj

I C2

2.4 Holomorphe Funktionen

47

Setzen wir diese Darstellungen in die für f (z) gezeigte Formel (2.163) ein, so folgt für r+ < |z − z0 | < r− ∞ X

f (z) =

n=−∞

an (z − z0 )n

(2.173)

mit 1 an = 2πj

f (ξ) dξ. (ξ − z0 )n+1

I Γ

(2.174)

Diese Resultate ergeben den folgenden Satz. Satz 2.43: Laurent-Reihe Eine Funktion f (z) sei im Kreisringgebiet G = {z : r+ < |z − z0 | < r− }

(2.175)

holomorph. Dann lässt sich die Funktion f (z) in G in eine eindeutig bestimmte Laurent-Reihe ∞ X an (z − z0 )n (2.176) f (z) = n=−∞

mit an =

1 2πj

I Γ

f (ξ) dξ (ξ − z0 )n+1

(2.177)

bezüglich des Entwicklungszentrums z0 entwickeln. Hierbei ist Γ eine stückweise glatte, geschlossene Kurve, die im Kreisgebiet die Kreisscheibe |z − z0 | > r+ einmal im mathematisch positiven Sinn umrundet, wie dies beispielsweise für eine beliebige Kurve |z − z0 | = ρ mit r+ < ρ < r− erfüllt ist. • Beweis 2.44 (Laurent-Reihe) Zu zeigen bleibt an dieser Stelle nur noch die Eindeutigkeit der Darstellung. Um diese nachzuweisen, nimmt man an, es gäbe eine weitere abweichende Darstellung f (z) =

∞ X n=−∞

bn (z − z0 )n .

(2.178)

Betrachtet man die Funktion f (z)/(z − z0 )k , k ∈ Z, so ist diese im Kreisring holomorph. Durch Integration längs einer Kurve Γ, wie sie in obigem Satz gefordert wird, erhält man I I ∞ X f (ξ) b (ξ − z0 )n−k−1 dξ , (2.179) dξ = n (ξ − z0 )k+1 n=−∞ Γ

Γ

2 Mathematische Grundlagen

48

wobei ebenfalls Summation und Integration vertauscht wurden. Wegen Gleichung (2.151) ergibt sich I f (ξ) dξ = 2πjbk (2.180) (ξ − z0 )k+1 Γ

und somit bk = ak für alle k ∈ Z.

2.4.3

Residuensatz

In diesem Abschnitt wird eine Herleitung des Residuensatzes gegeben, der in der Systemtheorie und somit insbesondere auch in diesem Buch Anwendung findet. Bei den verschiedenen Transformationen vom Zeitbereich in einen wie auch immer gearteten Bildbereich ist die Rücktransformation von entscheidender Bedeutung. Gerade diese Rücktransformation wird durch die Verwendung des Residuensatzes nicht selten vereinfacht, was in den folgenden Kapiteln auch einige Male demonstriert wird. Zur Einführung wird noch einmal an den Begriff der isolierten Singularität erinnert. Definition 2.19 Isolierte Singularität Eine Funktion f (z) hat im Punkt z0 eine isolierte Singularität, falls f (z) in z0 nicht holomorph ist, es jedoch ein R > 0 gibt, so dass f (z) in der punktierten Kreisscheibe 0 < |z − z0 | < R holomorph ist. Ebenfalls von großer Bedeutung ist der Begriff des Residuums, welcher der Vollständigkeit halber noch einmal definiert wird. Definition 2.20 Residuum Es sei z0 ∈ C eine isolierte Singularität der Funktion f (z). Die Funktion f (z) sei in der Kreisscheibe 0 < |z − z0 | < R in eine Laurent-Reihe der Gestalt f (z) =

∞ X n=−∞

an (z − z0 )n

(2.181)

entwickelt. Dann heißt Res{f (z); z0 } = a−1

(2.182)

das Residuum von f (z) an der Stelle z0 . Die Residuen einer Funktion in einem vorgegebenen Punkt lassen sich durch einfache algebraische Rechnung erhalten. Der folgende Satz gibt an, wie diese Berechnung bei Kenntnis der Funktion f (z) erfolgen kann.

2.4 Holomorphe Funktionen

49

Satz 2.45: Residuum Das Residuum einer Funktion f (z) an einer Polstelle3 z∞i der Ordnung ki ist durch Res{f (z); z∞i } =

dki −1  1 lim (z − z∞i )ki f (z) k −1 i z→z (ki − 1)! ∞i dz

(2.183)

bzw. für einfache Pole durch Res{f (z); z∞i } = lim (z − z∞i ) f (z) z→z∞i

(2.184) •

gegeben.

Der Residuensatz ermöglicht somit die Berechnung komplizierter Wegintegrale mittels einfacher algebraischer Kalkulation. Satz 2.46: Residuensatz Die Funktion f (z) sei in einem einfach zusammenhängenden Gebiet G mit Ausnahme endlich vieler Singularitäten z∞1 , . . . , z∞m holomorph. Weiter sei C eine stückweise glatte Jordan-Kurve, die einmal im mathematisch positiven Sinn durchlaufen wird. Die Kurve C verlaufe außerdem ganz innerhalb von G und alle Singularitäten liegen im Inneren von C. Dann gilt I f (z) dz = 2πj C

m X k=1

Res{f (z); z∞k } .

(2.185) •

Beweis 2.47 (Residuensatz) Um die Singularitäten z∞k seien jeweils Kreise mit Radien ρk > 0 gewählt, Ck = {z ∈ C : |z − z∞k | = ρk }, deren Radien so gewählt sind, dass die Kreise noch ganz im Inneren von C verlaufen und paarweise disjunkt sind. (Dies ist möglich, da die Singularitäten im Inneren von C liegen und nach Voraussetzung isoliert sind.) G∗ bezeichne nun das Gebiet, welches von C und den Kreisen C1 , . . . , Cm berandet wird. Der Rand dieses Gebietes sei so orientiert, dass C in mathematisch positiver Richtung verläuft, während die Wege C1 , . . . , Cm in mathematisch negativer Richtung verlaufen. Da f (z) in G∗ holomorph ist, folgt I f (z) dz = 0 (2.186) ∂G∗ 3 Unter einer Polstelle, einem Pol oder einer Unendlichkeitsstelle z ∞ versteht man eine isolierte Singularität einer Funktion f (z) an der Stelle z = z∞ , bei der der Funktionswert betragsmäßig gegen unendlich strebt: | limz→z∞ f (z)| = ∞.

2 Mathematische Grundlagen

50 und somit I

f (z) dz = −

C

m I X

f (z) dz .

(2.187)

k=1 C

k

Bezeichnet C˜k den Weg, der durch Umorientierung von Ck entsteht, so ergibt sich I f (z) dz =

m I X

f (z) dz .

(2.188)

k=1 ˜ Ck

C

Stellt man f (z) im Inneren von C˜k durch eine Laurent-Reihe mit Entwicklungspunkt z∞k dar, so folgt I f (z) dz = C˜k

∞ X l=−∞

I al

(z − z∞l )l dz .

(2.189)

C˜k

Unter Beachtung von (2.151) entsteht daraus: I f (z) dz = a−1 2πj = Res{f (z); z∞k } · 2πj , C˜k

womit die behauptete Gleichung bewiesen ist.

(2.190)

Teil II

Zeitkontinuum

3

Zeitkontinuierliche Signale

Physikalisch entstehen Signale durch den kontinuierlichen Verlauf einer beobachteten Größe. Im Folgenden werden der Einfachheit halber ausschließlich Zeitsignale betrachtet, die sich als kontinuierliche Funktionen der Zeit darstellen lassen. Man bezeichnet solche Signale als analoge Signale. Dieses Kapitel widmet sich der Betrachtung und Beschreibung zeitkontinuierlicher Signale sowie ihrer Eigenschaften und Beschreibungsformen. Hierzu werden die aus der Funktionalanalysis vorgestellten Hilfsmittel in konkrete mathematische Anweisungen überführt. Stochastische Signale sind Signale, deren zeitlicher Verlauf nicht analytisch vorhergesagt werden kann. Ihre Beschreibung erfolgt mit Hilfe von Korrelationsfunktionen, die selbst deterministische Signale sind [Pue15]. Im Gegensatz hierzu stehen die deterministischen Signale, bei denen der zeitliche Verlauf exakt beschrieben werden kann. Leider gibt es zu deren Analyse keine einheitliche Vorgehensweise, da die beiden Klassen der Energie- und Leistungssignale unterschieden werden müssen. Die Fourier-Reihe ermöglicht eine anschauliche Spektralanalyse für periodische Signale. Die Erweiterung auf allgemeine zeitkontinuierliche Signale ist die Fourier-Transformation. Anschließend werden einige Testsignale eingeführt, die bei der Signaluntersuchung und -verarbeitung häufig eingesetzt werden. Bei endlicher Beobachtungsdauer des Signals im Zeitbereich entsteht der Leckeffekt. Hierbei ergibt sich im Spektrum eine „Verschmierung“, d. h. die Auflösung im Frequenzbereich wird schlechter. Hat das Signal eine Unstetigkeitsstelle, so lässt sich der Signalverlauf nach Fourier-Transformation und anschließender Rücktransformation nicht mehr exakt rekonstruieren. Diese Tatsache wird als Gibbs’sches Phänomen bezeichnet. Anschließend werden das Zeitdauer-Bandbreite-Produkt und das Lemma von Riemann-Lebesgue behandelt. Diese Eigenschaften sind jeweils für alle Signale gültig und beziehen sich nicht, wie das Gibbs’sche Phänomen und der Leckeffekt, nur auf bestimmte Signale. Das Kapitel schließt mit der Betrachtung von Fensterfunktionen zur Reduktion des Leckeffekts.

3.1

Funktionenräume

In den Definitionen und Sätzen der Funktionalanalysis wurde in Kapitel 2 wenig über die Art der Vektoren gesprochen. Es wurde eigentlich instinktiv angenommen, dass es sich um Vektoren im klassischen Sinne handelt. Jedoch können mit allgemeinen Nor-

3 Zeitkontinuierliche Signale

54

men kxk, Distanzen d(x, y) und Innenprodukten hx, yi sehr viele verschiedene „Räume“ gebildet werden. In diesem Abschnitt werden speziell die Funktionenräume behandelt. Die Definitionen von Norm, Distanz und Innenprodukt hängen davon ab, was die Funktionen in der „realen“ Welt bedeuten. Trotzdem gelten für alle Funktionen die beiden folgenden Definitionen über Addition und Skalarmultiplikation von Funktionen und die Distanz zweier Funktionen. Definition 3.1 Addition und Skalarmultiplikation von Funktionen Die Addition und die Skalarmultiplikation von Funktionen werden auf naheliegende Weise definiert: (f1 + f2 ) (t) = f1 (t) + f2 (t) ,

(3.1)

(c f1 ) (t) = c · f1 (t) .

(3.2)

Mit diesen Definitionen wird die Funktionenmenge {f (t) : R → C} ein Vektorraum über dem Skalarkörper C. Definition 3.2 Distanz von Funktionen Die Distanz zweier Funktionen f1 (t) und f2 (t) wird bei gegebener Norm über d(f1 (t), f2 (t)) = kf1 (t) − f2 (t)k

(3.3)

bestimmt. Natürlich kann die Distanz zweier Funktionen nur dann angegeben werden, wenn beide Funktionen eine endliche Norm besitzen: kfi (t)k < ∞ .

(3.4)

Hier stellt sich nun die Frage, wie das Innenprodukt und die Norm von Funktionen berechnet werden. Dazu unterscheidet man verschiedene Signalklassen.

3.1.1

Signalklassen

Bei der Betrachtung im Zeitintervall R unterscheidet man drei Signaltypen. Definition 3.3 Energiesignale Ein beschränktes, stückweise stetiges Signal y(t), für das Z∞



Z∞

y(t) y (t) dt = −∞

−∞

2

|y(t)| dt < ∞

gilt, nennt man Energiesignal.

(3.5)

3.1 Funktionenräume

55

Diese Bezeichnung entstammt der physikalischen Interpretation, da das Integral als Energie des Signals interpretiert werden kann. Somit besitzen Energiesignale eine endliche Energie, weshalb sie für große Zeiten verschwinden müssen. Eine notwendige Bedingung, damit eine Funktion y(t) überhaupt ein Energiesignal sein kann, ist also: lim y(t) = 0 .

(3.6)

t→±∞

Viele in der Praxis vorkommende Signale besitzen zwar keine endliche Energie, deren Leistung ist jedoch beschränkt. Deshalb definiert man: Definition 3.4 Leistungssignale Ein beschränktes, stückweise stetiges Signal y(t), für welches das Integral Z∞

y(t) y ∗ (t) dt

(3.7)

−∞

divergiert (unendliche Energie), jedoch der Grenzwert 1 lim T →∞ 2T

ZT

1 y(t) y (t) dt = lim T →∞ 2T ∗

−T

ZT

2

|y(t)| dt < ∞

(3.8)

−T

existiert, nennt man Leistungssignal. Der Grenzwert lässt sich physikalisch als mittlere Leistung interpretieren. Beispielsweise handelt es sich bei der Klasse der beschränkten, periodischen Signale um Leistungssignale. Die mittlere Leistung von Energiesignalen ist null. Definition 3.5 Sonstige Signale Alle Zeitfunktionen y(t), für welche die Integrale Z∞

y(t) y ∗ (t) dt

(3.9)

−∞

und 1 lim T →∞ 2T

ZT

y(t) y ∗ (t) dt

(3.10)

−T

nicht existieren, welche nicht stückweise stetig oder unbeschränkt sind, werden als sonstige Signale klassifiziert.

3 Zeitkontinuierliche Signale

56

Auch wenn aufgrund der Definitionen viele Funktionen als sonstige Signale zu klassifizieren sind, so lassen sich mit Hilfe der Energie- und Leistungssignale leistungsstarke Analyse- und Synthesemethoden in der Signal- und Systemtheorie beschreiben. Bemerkung 3.1 Betrachtet man nicht das Zeitintervall R, sondern ein endliches Intervall wie z. B. (a, b) oder [a, b], so fällt aufgrund der Endlichkeit des Zeitintervalls der Begriff des Leistungssignals weg, d. h. alle Leistungssignale werden in einem endlichen Zeitintervall zum Energiesignal, da das Integral Zb

y(t) y ∗ (t) dt

(3.11)

a

konvergiert. Da man sich ein auf einem endlichen Intervall definiertes Energiesignal stets periodisch wiederholt denken kann, könnte das periodisch wiederholte Signal auch als Leistungssignal interpretiert werden. • In praktischen Anwendungen ist ein unendliches Zeitintervall zur Messung von Signalen nicht möglich. Man wird es daher immer mit zeitbegrenzten Funktionen zu tun haben. In späteren Anwendungen geht man implizit häufig von einer periodischen Fortsetzung des Signals außerhalb des Zeitintervalls über alle Zeiten aus. Dadurch lassen sich diese Signale in die Klasse der Leistungssignale einordnen.

3.1.2

Norm und Innenprodukt von Signalen

Für Energie- und Leistungssignale lassen sich jeweils unitäre Funktionenräume mit Norm und Innenprodukt definieren. Definition 3.6 Norm und Innenprodukt von Energiesignalen Die Norm und dasR Innenprodukt von Energiesignalen im Funktionenraum L2 (R) := ∞ {y(t) : R → C : −∞ |y(t)|2 dt < ∞} werden für y(t), y1 (t), y2 (t) ∈ L2 (R) angegeben durch  ky(t)k = 

Z∞

−∞

 12 y(t) y ∗ (t) dt < ∞

(3.12)

beziehungsweise hy1 (t), y2 (t)i =

Z∞ −∞

y1 (t) y2∗ (t) dt .

(3.13)

3.1 Funktionenräume

57

Bedingung für die Existenz der Norm ist die Konvergenz des Integrals. Existiert die Norm beider Funktionen y1 (t) und y2 (t), so existiert auch ihr Innenprodukt, was sich leicht über die Schwarz’sche Ungleichung (Satz 2.10) zeigen lässt: ∞ 2 Z 2 |hy1 (t), y2 (t)i| = y1 (t) y2∗ (t) dt ≤ ky1 (t)k2 · ky2 (t)k2 .

(3.14)

−∞

Statt des Integrationsbereiches R kann natürlich auch ein endliches Intervall gewählt werden, womit sich dann ein entsprechender Raum L2 (a, b) ergibt. Definition 3.7 Norm und Innenprodukt von Leistungssignalen ˜ 2 (R) := Die Norm und das Innenprodukt für Leistungssignale im Funktionenraum L RT 1 2 ˜ 2 (R) {y(t) : R → C : limT →∞ 2T −T |y(t)| dt < ∞} werden für y(t), y1 (t), y2 (t) ∈ L durch  ky(t)k =  lim

T →∞

1 2T

ZT

 21 y(t) y ∗ (t) dt < ∞

(3.15)

−T

beziehungsweise 1 hy1 (t), y2 (t)i = lim T →∞ 2T

ZT

y1 (t) y2∗ (t) dt

(3.16)

−T

angegeben.

Bemerkung 3.2 (Innenprodukt) Da in späteren Abschnitten auch Funktionen auftreten, welche von mehreren Zeitvariablen abhängen, wird bei Innenprodukten zwischen Funktionen oft die Variable, bezüglich der das Innenprodukt gebildet wird, als tiefgestellter Index angegeben. Somit lautet (3.13) in dieser ausführlicheren Schreibweise: hy1 (t), y2 (t)it =

Z∞

y1 (t) y2∗ (t) dt .

(3.17)

−∞

Beispielsweise entstehen bei den Kurzzeittransformationen, welche in der Signalverarbeitung Anwendung finden, Funktionen, die von mehreren Zeit- oder Frequenzvariablen abhängen (vgl. Kapitel 8–9). Auch hier wird bei Faltungsoperatoren zur Verdeutlichung ein Index angegeben. •

3 Zeitkontinuierliche Signale

58

3.1.3

Norm und Innenprodukt mit Belegung

In diesem Abschnitt bezeichnen x und y reellwertige Funktionen, die man sich als Zufallsvariablen vorstellen kann. Definition 3.8 Norm und Innenprodukt mit Belegung Mit den beiden reellen Belegungen µ(x) ≥ 0 und µ(x, y) ≥ 0, die den Wert x bzw. (x, y) entsprechend der Abbildung x bzw. (x, y) gewichten, werden die Norm und das Innenprodukt wie folgt definiert:  kxk =  hx, yi =

Z∞

 21 x2 · µ(x) dx ,

(3.18)

−∞ Z∞ Z∞

x y · µ(x, y) dx dy .

(3.19)

−∞−∞

Beispiel 3.3: Erwartungswerte Mit der Wahrscheinlichkeitsdichte f (x) ≥ 0 und der Verbundwahrscheinlichkeitsdichte f (x, y) ≥ 0 als reelle Belegungen, welche den Normierungsbedingungen Z∞ f (x) dx = 1 ,

(3.20)

−∞ Z∞ Z∞

f (x, y) dx dy = 1

(3.21)

−∞−∞

genügen, kann man das Normquadrat als quadratischen Mittelwert 2

kxk

Z∞

2

= E{x } =

x2 · f (x) dx

(3.22)

−∞

und das Innenprodukt als Kreuzkorrelation hx, yi = E{xy} =

Z∞ Z∞ x y · f (x, y) dx dy

(3.23)

−∞ −∞

interpretieren. Mit Hilfe der Schwarz’schen Ungleichung (Satz 2.10) lässt sich einfach eine Abschätzung für die Kreuzkorrelation angeben: p p (3.24) hx, yi ≤ kxk · kyk ⇐⇒ E{xy} ≤ E{x2 } · E{y2 } . •

3.2 Stochastische Signale

3.2

59

Stochastische Signale

Bei der Konstruktion, Berechnung oder Analyse von Systemen mit zeitkontinuierlichen Signalen muss man in der Regel die entsprechenden Signale kennen. So kann bei einem bestimmten Eingangssignal das Ausgangssignal berechnet werden. Doch wenn alle Eingangssignale bereits im Voraus bekannt wären, so bräuchte man sie eventuell gar nicht. • Wenn man etwa vor einer Messung das Messergebnis schon kennen würde, so könnte man sich die Messung sparen. Im Allgemeinen sind die Signale jedoch nicht a priori bestimmt, sondern unbestimmt. • Wenn bei einer Nachrichtenübertragung das Signal nur dem Sender bekannt ist, so ist das übertragene Signal aus der Sicht des Empfängers ein zufälliges oder auch stochastisches Signal, da es für ihn unbekannt ist – sonst bräuchte man das Signal nicht zu übertragen. Ferner ist das Empfangssignal in der Regel von zufälligen Störungen überlagert. Diese stochastischen Signale können aber trotzdem schon im Voraus Informationen enthalten. So kennt man etwa beim Wurf eines Würfels zwar nicht die als Nächstes erscheinende Augenzahl – trotzdem weiß man, dass bei einem „fairen“ Würfel jede Augenzahl mit gleicher Wahrscheinlichkeit auftritt. Nach einer kurzen Wiederholung des Wahrscheinlichkeitsbegriffs sowie einiger technisch wichtiger Wahrscheinlichkeitsdichten wird in diesem Abschnitt das Konzept des stochastischen Prozesses eingeführt. Genauere Ausführungen hierzu findet man in [BS75, Hä83, Ise74, JW02, Pue15].

3.2.1

Wahrscheinlichkeit

Zur Definition der Wahrscheinlichkeit sei zunächst ein Zufallsexperiment betrachtet, welches ein zufälliges Versuchsergebnis ω ∈ Ω aus einem Stichprobenraum Ω liefert. Der Stichprobenraum Ω entspricht dabei der Menge aller Elementarereignisse ω – also aller möglichen Ausgänge – des Zufallsexperimentes. Das Wahrscheinlichkeitsmaß wird jedoch nicht nur auf Elementarereignisse ω angewandt, sondern auch auf Mengen E ⊆ Ω von Elementarereignissen. Diese Betrachtung schließt insbesondere als Ereignisse E die Sonderfälle E = ∅ (unmögliches Ereignis) und E = Ω (sicheres Ereignis) mit ein. Ungeachtet von der konkreten Deutung von Wahrscheinlichkeit wird die Wahrscheinlichkeit eines Ereignisses E nach dem russischen Mathematiker A NDREJ K OLMOGO ROV (1903–1987) axiomatisch definiert.

3 Zeitkontinuierliche Signale

60 Definition 3.9 Wahrscheinlichkeit

Die Wahrscheinlichkeit P (E) eines Ereignisses E ∈ A ist ein Maß, welches die folgenden drei Bedingungen erfüllt: Nichtnegativität: P (E) ≥ 0 , Normierung: σ-Additivität:

(3.25)

P (Ω) = 1 , ! ∞ ∞ X [ P (Ei ) , P Ei = i=1

i=1

(3.26) Ei ∩ Ej = ∅ für i 6= j . (3.27)

Diese Bedingungen sind als die Axiome der Wahrscheinlichkeitstheorie bekannt. Dabei ist die Ereignismenge A ⊆ P(Ω) eine σ-Algebra, wobei P(Ω) die Potenzmenge von Ω bezeichnet. Eine nichtleere Menge A von Ereignissen E ⊆ Ω heißt σ-Algebra, wenn Ω ∈ A gilt und A bezüglich Komplementbildung und abzählbarer Vereinigungen abgeschlossen ist [JW02]. Mit der Definition der Wahrscheinlichkeit P spricht man bei dem Tripel (Ω, A, P ) von einem Wahrscheinlichkeitsraum.

3.2.2

Wahrscheinlichkeitsverteilung

Nachdem der genaue zeitliche Verlauf stochastischer Signale nicht angegeben werden kann, werden solche Signale anhand ihrer Amplitudenverteilung beschrieben. Dabei werden den Amplituden- oder Signalwerten Wahrscheinlichkeiten zugeordnet. Betrachtet man die unterschiedlichen Signalwerte als Ergebnisse eines Zufallsexperimentes, so ist formal eine Abbildung des Stichprobenraumes Ω auf R erforderlich, um den Verlauf der Wahrscheinlichkeit der Signalwerte als Funktion angeben zu können. Für diese Abbildung hat sich der Begriff der Zufallsvariablen etabliert. Definition 3.10 Zufallsvariable Eine Zufallsvariable ist eine Funktion, die jedem Elementarereignis ω ∈ Ω eines Zufallsexperimentes eine reelle Zahl y(ω) zuordnet.

Bemerkung 3.4 1. Der Begriff „Zufallsvariable“ (engl. random variable) ist leider irreführend, da es sich bei y(ω) offensichtlich um eine wohldefinierte Funktion handelt: y:Ω→R

mit

y(ω) = y .

(3.28)

Der Zufall spielt sich alleine im Zufallsexperiment (der Wahl der ω) ab, nicht in der deterministischen Abbildung y. 2. Die Werte y(ωi ) werden als Realisierungen der Zufallsvariablen bezeichnet.

3.2 Stochastische Signale

61

3. Je nachdem, ob die Elementarereignisse des betrachteten Zufallsexperimentes abzählbar sind oder nicht, werden diskrete und kontinuierliche Zufallsvariable unterschieden. Da im Folgenden amplitudenkontinuierliche Zufallssignale betrachtet werden, wird von kontinuierlichen Zufallsvariablen ausgegangen. • Definition 3.11 Verteilungsfunktion Die Verteilungsfunktion einer Zufallsvariablen y, Fy (y) := P (y ≤ y) ,

(3.29)

gibt die Wahrscheinlichkeit an, mit welcher der Funktionswert von y kleiner oder höchstens gleich y ist. Anstelle der Verteilungsfunktion wird meist die Wahrscheinlichkeitsdichte fy (y) (auch Dichtefunktion genannt) verwendet, die dieselbe Information enthält. Definition 3.12 Wahrscheinlichkeitsdichte Die Wahrscheinlichkeitsdichte einer Zufallsvariablen y ist fy (y) =

dFy (y) . dy

(3.30)

Wegen des Normierungsaxioms (3.26) in der Definition 3.9 gilt dabei: Z∞ fy (y) dy = 1 .

(3.31)

−∞

Bemerkung 3.5 Eine Zufallsvariable wird durch ihre Wahrscheinlichkeitsverteilung vollständig beschrieben. Da die Amplitudenverteilung eines Signals jedoch mit der Zeit variieren kann, kann durch eine Wahrscheinlichkeitsverteilung ein stochastisches Signal im Allgemeinen lediglich zu einem festen Zeitpunkt t0 beschrieben werden. Die Erweiterung auf die gesamte Zeitachse t ∈ R erfolgt durch den in Abschnitt 3.2.3 eingeführten stochastischen Prozess. • Zur kompakten Beschreibung von Zufallsvariablen werden in der Praxis sogenannte Momente herangezogen. Dabei handelt es sich um Kenngrößen, die über den Erwartungswert-Operator definiert werden. Die wichtigsten Momente einer Zufallsvariablen sind der Mittelwert und die Varianz.

3 Zeitkontinuierliche Signale

62 Definition 3.13 Erwartungswert

Der Erwartungswert einer Funktion g(y) einer Zufallsvariablen y mit der Dichte fy (y) ist als Z∞ g(y) fy (y) dy

E{g(y)} =

(3.32)

−∞

definiert. Der Erwartungswert ist ein linearer Operator (vgl. Abschnitt 2.3.1). Definition 3.14 Moment einer Zufallsvariablen Das n-te Moment einer Zufallsvariablen y ist durch Z∞

n

µn = E{y } =

y n fy (y) dy

(3.33)

−∞

definiert. Durch eine Zentrierung der Zufallsgröße um ihren Mittelwert ergeben sich die zentralen Momente. Definition 3.15 Zentrales Moment einer Zufallsvariablen Das n-te zentrale Moment einer Zufallsvariablen y ist durch n

E{(y − E{y}) } =

Z∞ −∞

(y − E{y})n fy (y) dy

(3.34)

gegeben.

Bemerkung 3.6 1. Das erste Moment ist der Erwartungswert oder Mittelwert µ = E{y}. 2. Das zweite zentrale Moment heißt Varianz σ 2 . Sie ist ein Maß für die Streuung der Werte um den Mittelwert. Ihre Wurzel heißt Standardabweichung σ. 3. Bei mittelwertfreien Zufallsvariablen sind das n-te Moment und das n-te zentrale Moment identisch. • Es zeigt sich, dass in der Natur viele Ereignisse, die von einer oder mehreren zufälligen Größen abhängen, zumindest näherungsweise bestimmten Wahrscheinlichkeitsverteilungen gehorchen. Zu den am meisten verwendeten Verteilungen gehören die Gleichverteilung, die Normalverteilung und die Exponentialverteilung.

3.2 Stochastische Signale

3.2.2.1

63

Gleichverteilung

Die Gleichverteilung einer Zufallsvariablen y im Intervall [a, b] ist durch die Wahrscheinlichkeitsdichte   1 für a ≤ y ≤ b fy (y) = b − a (3.35)  0 sonst gegeben. In Abb. 3.1 ist die Wahrscheinlichkeitsdichte einer Gleichverteilung im Intervall [a, b] dargestellt.

Abbildung 3.1: Wahrscheinlichkeitsdichte bei Gleichverteilung.

Mittels einfacher Rechnung folgen der Erwartungswert Z∞ µ = E{y} =

Zb y fy (y) dy =

−∞

a

1 b2 − a2 1 y dy = = (a + b) b−a 2 b−a 2

(3.36)

und die Varianz: 2

Z∞

σ = −∞

2

(y − µ) fy (y) dy =

1 = b−a

Zb  a

Zb  a

2 1 1 dy y − (a + b) 2 b−a

 1 y 2 − (a + b)y + (a + b)2 dy 4

  1 3 1 1 1 3 2 2 2 (b − a ) − (a + b)(b − a ) + (a + b) (b − a) = b−a 3 2 4 1 1 1 = (b3 − 3ab2 + 3a2 b − a3 ) = (b − a)2 . 12 b − a 12

(3.37)

(3.38) (3.39) (3.40)

Beispiel 3.7: Quantisierungsfehler eines Analog-Digital-Umsetzers Der Quantisierungsfehler eines Analog-Digital-Umsetzers wird näherungsweise als gleichverteilt angenommen [Pue15]. Wenn man also eine physikalische Größe diskretisiert, so kann der Fehler zwischen dem eigentlichen Wert und dem diskre• ten Wert oft als gleichverteilt modelliert werden.

3 Zeitkontinuierliche Signale

64

3.2.2.2

Normalverteilung

Die Normalverteilung einer Zufallsvariablen y ist durch die Wahrscheinlichkeitsdichte   (y − µ)2 1 exp − fy (y) = √ , y ∈ R, (3.41) 2σ 2 2πσ mit den Parametern µ und σ 2 gegeben. In Abb. 3.2 sieht man die Form einer Wahrscheinlichkeitsdichte bei Normalverteilung.

Abbildung 3.2: Wahrscheinlichkeitsdichte bei Normalverteilung.

Man kann durch Rechnung zeigen, dass der Erwartungswert E{y} gleich µ Z∞ E{y} = −∞

1 y fy (y) dy = √ 2πσ

1 =√ 2πσ 1 =√ 2πσ

Z∞ −∞ Z∞ −∞

| µ = 2√ 2πσ

Z∞ −∞

  (y − µ)2 dy y exp − 2σ 2

  y2 (y + µ) exp − 2 dy 2σ     Z∞ µ y2 y2 y exp − 2 dy + √ exp − 2 dy 2σ 2σ 2πσ −∞ {z }

(3.42)

(3.43)

(3.44)

=0

Z∞ 0

  √ π µ y2 exp − 2 dy = 2 √ =µ 2σ 2πσ 2 √12σ

(3.45)

und die Varianz gleich σ 2 2

E{(y−E{y}) } =

Z∞ −∞

(y − µ)2 fy (y) dy

1 =√ 2πσ

Z∞ −∞

  (y − µ)2 dy (y − µ) exp − 2σ 2 2

(3.46)

(3.47)

3.2 Stochastische Signale

65

1 =√ 2πσ 2 =√ 2πσ

Z∞ −∞ Z∞

  y2 y 2 exp − 2 dy 2σ

(3.48)

  √ √ 3 2 π( 2σ) y2 = σ 2 (3.49) y exp − 2 dy = √ 2σ 4 2πσ 2

0

ist. Ist eine Zufallsvariable normalverteilt, so wird ihre Verteilung durch diese beiden Parameter vollständig bestimmt. Durch Variablentransformation kann man jede Normalverteilung in eine Standardnormalverteilung überführen, die den Mittelwert 0 und die Varianz 1 besitzt und deren Wahrscheinlichkeitsdichte wie folgt gegeben ist: 1 2 1 fy (y) = √ e− 2 y , 2π

y ∈ R.

(3.50)

Bei Zufallsvektoren y = (y1 , . . . , yN )T wird der Mittelwert µ von einem Mittelwertvektor µ und die Varianz σ 2 von der Kovarianzmatrix Σ abgelöst. Die Elemente des Mittelwertvektors entsprechen den einzelnen Mittelwerten der Zufallsvariablen µ = (µ1 , . . . , µN )T ,

µi = E{yi } ,

(3.51)

und die Elemente der Kovarianzmatrix Σ werden nach folgendem Schema bestimmt: σij = E{(yi − µi )(yj − µj )} .

(3.52)

Dann hat die Wahrscheinlichkeitsdichte der mehrdimensionalen Normalverteilung folgende Darstellung: fy (y) =

1 (2π)N/2 |Σ|

1

1 2

T

e− 2 (y−µ)

Σ−1 (y−µ)

,

y ∈ RN .

(3.53)

Aufgrund des zentralen Grenzwertsatzes sind viele Phänomene als näherungsweise normalverteilt modellierbar [BS75, Pue15].

3.2.2.3

Exponentialverteilung

Die Exponentialverteilung einer Zufallsvariablen y ist durch die Wahrscheinlichkeitsdichte  −λy λe für y ≥ 0 (3.54) fy (y) = 0 sonst charakterisiert. In Abb. 3.3 sieht man ein Beispiel einer Wahrscheinlichkeitsdichte bei Exponentialverteilung. Ihr Erwartungswert respektive Mittelwert beträgt, wie man leicht nachrechnet, 1 λ und die Varianz lautet 1 σ2 = 2 . λ E{y} =

(3.55)

(3.56)

3 Zeitkontinuierliche Signale

66

Abbildung 3.3: Wahrscheinlichkeitsdichte bei Exponentialverteilung.

Beispiel 3.8: Ausfallrate von Bauelementen Die Zeiten bis zum Ausfall gleichartiger Bauelemente werden als exponentialverteilt angenommen. Der Proportionalitätsfaktor λ in der Differentialgleichung dN = −λN dt



N (t) = N0 · e−λt

(3.57)

bezeichnet dabei die Ausfallrate. Die momentane Abnahme der intakten Bauelemente ist proportional zur Zahl N der intakten Bauelemente. Die Vorgeschichte der Bauelementezahl bleibt dabei unberücksichtigt. •

3.2.3

Stochastische Prozesse

Bei den klassischen Zufallsexperimenten werden die Elementarereignisse durch fest zugeordnete Werte gekennzeichnet, z. B. wird das Ergebnis beim Würfeln durch eine Zahl zwischen 1 und 6 beschrieben. In der Signalverarbeitung können die Zufallsereignisse nicht einem einzelnen Zahlenwert, sondern müssen einem parameterabhängigen Zahlenwert – also einer Funktion oder Folge – zugeordnet werden. Dieser Parameter ist im Folgenden die Zeit t bzw. der Zeitindex n. Im Allgemeinen darf der Parameter aber auch eine andere Bedeutung haben. Bei einem Zufallsexperiment, dessen Elementarereignisse ω ∈ Ω durch die Zahlenwerte einer Zufallsvariablen gekennzeichnet sind, müssen alle möglichen Zahlenwerte y (ω) , ω ∈ Ω, einer auf einem Wahrscheinlichkeitsraum (Ω, A, P ) definierten Zufallsvariablen y : Ω → R zur Beschreibung des Zufallsexperimentes herangezogen werden. Wenn den Elementarereignissen Funktionen zugeordnet sind, müssen alle bei diesem Zufallsexperiment möglichen Funktionen zur Beschreibung dieses Zufallsexperimentes verwendet werden. Die Gesamtheit dieser Funktionen y (ω) (t), ω ∈ Ω, nennt man einen stochastischen Prozess. Definition 3.16 Stochastischer Prozess Ein stochastischer Prozess y : T × Ω → R ist eine Familie von Zufallsvariablen, welche durch t ∈ T indiziert ist, wobei T als diskrete oder kontinuierliche Zeit interpretiert werden kann. Die Zufallsvariablen sind über demselben Wahrscheinlichkeitsraum (Ω, A, P ) definiert.

3.2 Stochastische Signale

67

Somit ist y(t0 , ω) für ein festes t0 ∈ T eine gewöhnliche Zufallsvariable, während bei festem ω0 ∈ Ω durch y(t, ω0 ) eine Zeitfunktion gegeben ist. Betrachtet man y(t0 , ω) bei festem t0 ∈ T als Zufallsvariable, so wird diese Zufallsvariable oft auch mit y(t0 ) bezeichnet, wobei dann die Abhängigkeit von ω dadurch deutlich wird, dass wie bei gewöhnlichen Zufallsvariablen die Schreibmaschinenschrift verwendet wird. Die bei festem ω0 ∈ Ω entstehende Zeitfunktion wird Musterfunktion des stochastischen Prozesses genannt und mit y (ω0 ) (t) bezeichnet, um die Abhängigkeit von ω0 und somit den zufälligen Ursprung dieser Funktion hervorzuheben. Ein Signal, dessen Funktion mit den Mitteln eines stochastischen Prozesses untersucht werden kann, nennt man stochastisches Signal. Gehört zu jedem Elementarereignis ω ∈ Ω nicht nur eine einzige Funktion y (ω) (t), son(ω) (ω) dern sind ihm m Funktionen y1 (t), . . . , ym (t) fest zugeordnet, so handelt es sich um einen m-dimensionalen stochastischen Prozess y(t) = (y1 (t), . . . , ym (t))T . Hier spricht man davon, dass ein m-dimensionaler stochastischer Prozess aus m einzelnen stochastischen Signalen besteht. Dies ist immer dann sinnvoll, wenn die m Signale im Zusammenhang als Einheit betrachtet werden können. Beispiel 3.9: Rauschspannung Die Spannung u(t) an einem Widerstand R ist, bedingt durch thermisches Rauschen, verrauscht und kann auch bei Kenntnis des durchfließenden Stromes i(t) nicht vorhergesagt werden. Hierbei handelt es sich bei u(t) um einen stochastischen Prozess, dessen Funktion beliebige Werte annehmen kann. Die Schar aller möglichen Funktionen ist unendlich groß. • Beispiel 3.10: Elektronenspin Der Spin eines Elektrons 1 L(s) z =± ~ 2

(3.58)

kann sich nicht nur mit der Zeit ändern, sondern ist im Allgemeinen auch nicht vorhersehbar. Hierbei handelt es sich um einen stochastischen Prozess, dessen Funktion nur zwei diskrete Werte annehmen kann. Die Schar aller möglichen Funktionen über der Zeit ist unendlich groß. • Beispiel 3.11: MP3-Player Das digitale Ausgangssignal yn , n ∈ {1, . . . , N }, eines MP3-Players ist von der ausgewählten Wiedergabeliste abhängig und damit deterministisch. Betrachtet man aber einen zufällig ausgewählten MP3-Player, so kann man das Ausgangssignal yn nicht vorhersagen. Zwar beschränkt sich die Schar der möglichen Ausgangssignale

3 Zeitkontinuierliche Signale

68

auf die endliche Anzahl aller existierenden Wiedergabelisten. Trotzdem muss man ohne Kenntnis der Wiedergabeliste von einem stochastischen Signal und damit von einem stochastischen Prozess ausgehen. •

3.2.3.1

Wahrscheinlichkeitsdichte

An dieser Stelle wird der Begriff der Wahrscheinlichkeitsdichte auf stochastische Prozesse erweitert. Wie bei den Zufallsvariablen wird dazu als Erstes die Verteilungsfunktion definiert, die Aussagen über das Verhalten der Amplitude zu einem Zeitpunkt t erlaubt. Definition 3.17 Verteilungsfunktion Die Verteilungsfunktion eines stochastischen Prozesses y(t), Fy(t) (y) = P (y(t) ≤ y) ,

(3.59)

gibt die Wahrscheinlichkeit an, mit der der zufällige Funktionswert (Signalwert) y(t) zum Zeitpunkt t kleiner gleich y ist. Somit ist die Verteilungsfunktion von den beiden Parametern y und t abhängig. Hieraus folgt die Dichtefunktion als partielle Ableitung der Verteilungsfunktion. Definition 3.18 Wahrscheinlichkeitsdichte Die Wahrscheinlichkeitsdichte eines stochastischen Prozesses y(t) ergibt sich durch fy(t) (y) =

∂Fy(t) (y) ∂y

(3.60)

ebenfalls als Funktion zweier Variablen. Dabei gilt: Z∞ fy(t) (y) dy = 1 .

(3.61)

−∞

Sowohl die Verteilungsfunktion als auch die Wahrscheinlichkeitsdichte hängen im allgemeinen Fall von der Zeit t ab. Die partielle Ableitung in (3.60) ist als verallgemeinerte Ableitung anzusehen. An Stellen, an denen in der Verteilungsfunktion Sprünge auftreten, enthält die Wahrscheinlichkeitsdichte δ-Distributionen. Bei m-dimensionalen stochastischen Prozessen sind auch eine Verteilungsfunktion und eine Wahrscheinlichkeitsdichte definiert. Es bedarf lediglich einer Übertragung der eindimensionalen Begriffe auf mehrdimensionale Funktionen. Man betrachtet also gleichzeitig das Verhalten der eindimensionalen Zufallsgrößen y1 (t), . . . , ym (t) zu Zeitpunkten t1 , . . . , tm . Dies wird in der folgenden Definition erfasst.

3.2 Stochastische Signale

69

Definition 3.19 Mehrdimensionale Verteilungsfunktion Die Verteilungsfunktion eines m-dimensionalen stochastischen Prozesses y(t) = (y1 (t), . . . , ym (t))T , Fy(t1 ,...,tm ) (y1 , . . . , ym ) = P (y1 (t1 ) ≤ y1 ∩ · · · ∩ ym (tm ) ≤ ym ) ,

(3.62)

gibt die Wahrscheinlichkeit an, mit der die Funktionswerte (Signalwerte) yi (t) zum Zeitpunkt ti kleiner oder höchstens gleich yi sind. Hieraus folgt die Wahrscheinlichkeitsdichte als partielle Ableitung der Verteilungsfunktion. Definition 3.20 Mehrdimensionale Wahrscheinlichkeitsdichte Die Wahrscheinlichkeitsdichte eines m-dimensionalen stochastischen Prozesses y(t) = (y1 (t), . . . , ym (t))T ist durch fy(t1 ,...,tm ) (y1 , . . . , ym ) =

∂ m Fy(t1 ,...,tm ) (y1 , . . . , ym ) ∂y1 · · · ∂ym

(3.63)

gegeben. Dabei gilt: Z∞ Z∞ · · · fy(t1 ,...,tm ) (y1 , . . . , ym ) dy1 · · · dym = 1 .

−∞

(3.64)

−∞

Beim mehrdimensionalen stochastischen Prozess kommt noch der Begriff der statistischen Unabhängigkeit hinzu. Definition 3.21 Stochastische Unabhängigkeit Die Komponenten y1 (t), . . . , ym (t) eines m-dimensionalen stochastischen Prozesses y(t) = (y1 (t), . . . , ym (t))T heißen stochastisch unabhängig, wenn die Gleichungen Fy(t1 ,...,tm ) (y1 , . . . , ym ) = Fy1 (t1 ) (y1 ) · . . . · Fym (tm ) (ym )

(3.65)

fy(t1 ,...,tm ) (y1 , . . . , ym ) = fy1 (t1 ) (y1 ) · . . . · fym (tm ) (ym )

(3.66)

bzw.

gelten. Die m-dimensionale Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte ist das Produkt der m einzelnen Verteilungsfunktionen bzw. Wahrscheinlichkeitsdichten. Stochastische Unabhängigkeit ist eine Eigenschaft, die experimentell höchstens näherungsweise nachgewiesen werden kann. Bei der Formulierung eines Modells für ein

3 Zeitkontinuierliche Signale

70

System kann sie – sofern sie nicht bereits aus den Annahmen über die Quellen auftretender Zufallsprozesse folgt – nur vorausgesetzt werden. Dies ist in der Regel gerechtfertigt, wenn die stochastischen Signale verschiedene physikalische oder technische Ursachen haben. Stochastische Unabhängigkeit bedeutet immer eine wesentliche Vereinfachung der Modellanalyse. Man wird daher oft auch dort versuchen, mit stochastischer Unabhängigkeit zu arbeiten, wo die Quellen der stochastischen Signale zwar nicht völlig unabhängig voneinander sind, vorhandene Abhängigkeiten aber nicht interessieren oder keine allzu große Auswirkung auf die untersuchte Fragestellung haben.

3.2.3.2

Momente

Mit Hilfe der Verteilungsfunktion oder der Wahrscheinlichkeitsdichte wird ein stochastischer Prozess beschrieben. Ob man aber auf diese Weise eine vollständige Beschreibung aller Eigenschaften des Prozesses erlangt und wie diese vollständige Beschreibung aussehen muss, soll hier nicht weiter vertieft werden. Schon aus rein praktischen Gründen kann man nämlich die Genauigkeit bei der Beschreibung der Eigenschaften eines stochastischen Prozesses im Allgemeinen nicht beliebig weit treiben. Allein um einen eindimensionalen stochastischen Prozess y(t) durch seine Verteilungsfunktion Fy(t) (y) zu beschreiben, muss diese Funktion für genügend dicht gelegene Punkte t messtechnisch oder analytisch aus den Gesetzmäßigkeiten, denen die Musterfunktionen y (ω) (t) von y(t) gehorchen, ermittelt werden. Dabei ist auch zu bedenken, dass meistens gar nicht alle möglichen Musterfunktionen eines Prozesses, sondern lediglich eine geringe Anzahl derselben gemessen werden können. Die Ermittlung der Verteilungsfunktion für mehrdimensionale stochastische Prozesse y(t) ist offensichtlich noch aufwändiger. Aus diesen Gründen verzichtet man häufig darauf, die Eigenschaften eines stochastischen Prozesses durch seine Verteilungs- oder Dichtefunktion zu beschreiben. Man versucht stattdessen, die zugehörigen Momente – wie z. B. Erwartungswerte – zu ermitteln, wobei man sich in der Praxis auf wenige Momente der Statistiken erster und zweiter Ordnung beschränkt [Pue15]. Mit der Kenntnis dieser Momente lassen sich viele praktische Aufgaben lösen.

Definition 3.22 Statistik m-ter Ordnung Werden bei einer statistischen Betrachtung m Zufallsvariablen y1 , . . . , ym berücksichtigt, so spricht man von einer Statistik m-ter Ordnung. Diese wird durch die mehrdimensionale Wahrscheinlichkeitsdichte fy1 ...ym (y1 , . . . , ym ) vollständig charakterisiert.

Momente der Statistik 1. Ordnung Im Folgenden werden die Momente der Statistik 1. Ordnung vorgestellt.

3.2 Stochastische Signale

71

Definition 3.23 Moment eines stochastischen Prozesses Durch n

Z∞

E{y (t)} =

y n fy(t) (y) dy

(3.67)

−∞

wird das n-te Moment des stochastischen Prozesses y(t) definiert, welches auch als µn (t) bezeichnet wird. Durch eine Zentrierung des Prozesses um seinen zeitabhängigen Mittelwert ergeben sich die zentralen Momente eines stochastischen Prozesses. Definition 3.24 Zentrales Moment eines stochastischen Prozesses Durch n

E{(y(t) − E{y(t)}) } =

Z∞ −∞

(y − E{y(t)})n fy(t) (y) dy

(3.68)

wird das n-te zentrale Moment des stochastischen Prozesses y(t) definiert.

Bemerkung 3.12 1. Das erste Moment ist der zeitabhängige Erwartungswert oder Mittelwert µ(t). 2. Das zweite zentrale Moment heißt Varianz σ 2 (t). Sie ist ein Maß für die Streuung der Werte um den Mittelwert. Ihre Wurzel heißt Standardabweichung. 3. Bei der Berechnung der zentralen Momente wird vom Signalwert y der Mittelwert abgezogen. Damit ist bei mittelwertfreien stochastischen Signalen das i-te Moment gleich dem i-ten zentralen Moment. • Mehrdimensionale stochastische Prozesse lassen sich auch durch Momente beschreiben. Dies soll am Beispiel zweidimensionaler Prozesse demonstriert werden. Definition 3.25 Erstes Moment eines zweidimensionalen Prozesses Das erste Moment eines zweidimensionalen stochastischen Prozesses y(t), y(t) = (y1 (t), y2 (t))T , wird durch einen zweidimensionalen Vektor beschrieben. Die j-te Komponente lässt sich wie folgt bestimmen: Z∞ µyj (t) = E{yj (t)} =

y fyj (t) (y) dy , −∞

j = 1, 2 .

(3.69)

3 Zeitkontinuierliche Signale

72

Momente der Statistik 2. Ordnung Bei der Statistik 2. Ordnung beschränkt man sich in der Praxis auf das zweite Moment und auf das zweite zentrale Moment, die im Folgenden für zweidimensionale Prozesse vorgestellt werden. Definition 3.26 Zweites Moment eines zweidimensionalen Prozesses Das zweite Moment und das zweite zentrale Moment eines zweidimensionalen stochastischen Prozesses y(t) = (y1 (t), y2 (t))T werden jeweils durch eine (2×2)-Matrix beschrieben. Die (j,k)-te Komponente lässt sich beim zweiten Moment durch ryj yk (t1 , t2 ) = E{yj (t1 ) y∗k (t2 )} Z∞ Z∞ yj yk∗ fyj (t1 )yk (t2 ) (yj , yk ) dyj dyk =

(3.70) (3.71)

−∞−∞

und beim zweiten zentralen Moment durch  ∗ cyj yk (t1 , t2 ) = E [yj (t1 ) − E{yj (t1 )}] · [yk (t2 ) − E{yk (t2 )}] Z∞ Z∞ = (yj − µj (t1 )) (yk − µk (t2 ))∗ fyj (t1 )yk (t2 ) (yj , yk ) dyj dyk

(3.72) (3.73)

−∞−∞

berechnen. Dabei nennt man ryj yk die Korrelationsfunktion und cyj yk die Kovarianzfunktion zwischen der j-ten und k-ten Komponente. Für j = k spricht man von Autokorrelationsfunktion bzw. Autokovarianzfunktion, ansonsten von Kreuzkorrelationsfunktion bzw. Kreuzkovarianzfunktion. Die 2 × 2-Matrizen bezeichnet man entsprechend als Korrelationsmatrix Ryy (t1 , t2 ) bzw. Kovarianzmatrix Cyy (t1 , t2 ). Bemerkung 3.13 (Korrelation) Bei der Korrelation komplexwertiger Energie- oder Leistungssignale wird eines der beiden Signale komplex konjugiert. Die hier betrachteten stochastischen Prozesse sind jedoch stets reellwertig, weswegen die Konjugation entfallen kann. • Man beachte, dass die Korrelationsfunktion ry2 y1 (t1 , t2 ) den statistischen Zusammenhang zwischen y2 (t1 ) und y1 (t2 ) beschreibt. Dagegen beschreibt ry1 y2 (t1 , t2 ) den Zusammenhang zwischen y1 (t1 ) und y2 (t2 ). Es gilt im Allgemeinen ry2 y1 (t1 , t2 ) 6= ry1 y2 (t1 , t2 ) ,

falls t1 6= t2 .

(3.74)

Die Korrelationsmatrix ist also für t1 6= t2 asymmetrisch und für t1 = t2 symmetrisch. Entsprechend gilt für die Kovarianzmatrix im Allgemeinen cy2 y1 (t1 , t2 ) 6= cy1 y2 (t1 , t2 ) ,

falls t1 6= t2 .

(3.75)

3.2 Stochastische Signale

73

Im Falle eines m-dimensionalen stochastischen Prozesses y(t) = (y1 (t), . . . , ym (t))T wird die Korrelationsmatrix   ry1 y1 (t1 , t2 ) · · · ry1 ym (t1 , t2 )   .. .. .. (3.76) Ryy (t1 , t2 ) =   . . . rym y1 (t1 , t2 ) · · · rym ym (t1 , t2 ) bzw. die Kovarianzmatrix   cy1 y1 (t1 , t2 ) · · · cy1 ym (t1 , t2 )   .. .. .. Cyy (t1 , t2 ) =   . . . cym y1 (t1 , t2 ) · · · cym ym (t1 , t2 )

(3.77)

aus den Elementen des zweidimensionalen Falles gebildet. Sowohl der Begriff der Korrelationsmatrix Ryy (t1 , t2 ) als auch der der Kovarianzmatrix Cyy (t1 , t2 ) lassen sich auf den Fall zweier m-dimensionaler stochastischer Prozesse y1 (t) und y2 (t) verallgemeinern. Dann beschreiben die Korrelationsmatrix Ry1 y2 (t1 , t2 ) und die Kovarianzmatrix Cy1 y2 (t1 , t2 ) keine Autokorrelationen bzw. Autokovarianzen, sondern Kreuzkorrelationen bzw. Kreuzkovarianzen.

3.2.3.3

Stationarität

Allgemein sind die Verteilungsfunktionen und damit auch die Wahrscheinlichkeitsdichten eines stochastischen Prozesses zeitabhängig. Dies hat zur Folge, dass sowohl die ersten Momente eine Funktion der Zeit t sind als auch die Korrelationen und Kovarianzen eine Funktion der Zeiten t1 und t2 sind. Wesentliche Vereinfachungen treten allerdings ein, wenn sich die statistischen Eigenschaften eines Prozesses oder die gemeinsamen statistischen Eigenschaften mehrerer Prozesse bei einer Verschiebung der Zeitachse nicht ändern. Man nennt derartige Zufallsprozesse stationär. Definition 3.27 Stationarität Ein m-dimensionaler stochastischer Prozess y(t), y(t) = (y1 (t), . . . , ym (t))T , heißt stationär, streng stationär oder auch stark stationär, wenn seine statistischen Eigenschaften invariant gegenüber beliebigen Verschiebungen t0 der Zeit sind, d. h. falls Fy(t1 ,...,tm ) (y1 , . . . , ym ) = Fy(t1 +t0 ,...,tm +t0 ) (y1 , . . . , ym )

(3.78)

fy(t1 ,...,tm ) (y1 , . . . , ym ) = fy(t1 +t0 ,...,tm +t0 ) (y1 , . . . , ym )

(3.79)

bzw.

gilt. Zwei stochastische Prozesse heißen verbunden stationär, wenn beide stationär und ebenso ihre gemeinsamen statistischen Eigenschaften invariant gegenüber der Zeit sind.

3 Zeitkontinuierliche Signale

74

Hieraus folgt sofort für einen eindimensionalen stochastischen Prozess y(t) wegen Fy(t) (y) = Fy(t+t0 ) (y) = Fy (y)

(3.80)

fy(t) (y) = fy(t+t0 ) (y) = fy (y)

(3.81)

und

die Zeitunabhängigkeit der Verteilungsfunktion bzw. der Wahrscheinlichkeitsdichte. Die n-ten Momente Z∞ Z∞ E{yn (t)} = y n fy(t) (y) dy = y n fy (y) dy = E{yn } (3.82) −∞

−∞

hängen dementsprechend ebenfalls nicht mehr von der Zeit ab. Bei zweidimensionalen stationären stochastischen Prozessen y(t) = (y1 (t), y2 (t))T

(3.83)

erhält man mit der Zeittransformation t0 = t∗0 − t2 folgende Verteilungsfunktion: Fy(t1 +t0 ,t2 +t0 ) (y1 , y2 ) = Fy(t1 −t2 +t∗0 ,t∗0 ) (y1 , y2 ) .

(3.84)

Da stationäre stochastische Prozesse invariant gegenüber der Zeit sind, kann man die Zeitverschiebung t∗0 außer Acht lassen, wodurch man mit τ = t1 − t2 eine Verteilungsfunktion Fy(t1 ,t2 ) (y1 , y2 ) = Fy(τ ) (y1 , y2 )

(3.85)

erhält, die nur noch von der Zeitdifferenz τ abhängt. Die absoluten Zeiten sind wegen der Stationarität irrelevant. Entsprechend gilt für die Wahrscheinlichkeitsdichte: fy(t1 ,t2 ) (y1 , y2 ) = fy(τ ) (y1 , y2 ) .

(3.86)

Für die zweiten Momente folgt, dass die Korrelationsfunktion ryj yk (τ ) = E{yj (t +

τ ) y∗k (t)}

Z∞ Z∞ =

yj yk∗ fy(τ ) (yj , yk ) dyj dyk

(3.87)

−∞−∞

und die Kovarianzfunktion  ∗ cyj yk (τ ) = E (yj (t + τ ) − E{yj }) (yk (t) − E{yk }) Z∞ Z∞ = (yj − µj ) (yk − µk )∗ fy(τ ) (yj , yk ) dyj dyk −∞−∞

ebenfalls nur noch von der Zeitverschiebung abhängen. Neben der strengen Stationarität gibt es auch die schwache Stationarität.

(3.88) (3.89)

3.2 Stochastische Signale

75

Definition 3.28 Schwache Stationarität Ein stochastischer Prozess heißt schwach stationär oder auch im weiteren Sinne stationär, wenn die Invarianz gegenüber einer Translation der Zeit nur für die Momente erster und zweiter Ordnung gilt. Hierfür muss die Verteilungsfunktion bzw. die Wahrscheinlichkeitsdichte selbst nicht invariant gegenüber einer Zeitverschiebung sein. Nur die Mittelwerte, Korrelationen und Kovarianzen sind nicht vom absoluten Zeitpunkt abhängig. Stationarität ist eine Eigenschaft eines stochastischen Prozesses, die nur aus der Gesamtheit aller Musterfunktionen bestimmt werden kann. Die Beobachtung endlich langer Abschnitte einzelner Musterfunktionen – und nur dies ist in einem Experiment möglich – kann höchstens Hinweise darauf geben, ob die Annahme eines stationären stochastischen Prozesses als Modell für ein Signal oder eine Störung angemessen ist oder nicht. Daneben hängt es weitgehend vom Untersuchungsziel ab, ob ein Vorgang durch einen instationären stochastischen Prozess modelliert werden muss, oder ob das in der Regel sehr viel einfachere Modell eines stationären Prozesses wirklichkeitsnah genug ist.

3.2.3.4

Ergodizität

Bei der Bestimmung des ersten Moments allgemeiner stochastischer Prozesse nach (3.67), Z∞ y fy(t) (y) dy ,

E{y(t)} =

(3.90)

−∞

wird zu einem festen Zeitpunkt t über die Schar aller möglichen Musterfunktionen gemittelt. Dies nennt man den Scharmittelwert. Mittelt man hingegen über alle Zeiten t bei einer festen Musterfunktion y (ω) (t), so spricht man vom Zeitmittelwert. Der Zeitmittelwert sagt nur etwas über die eine Musterfunktion aus, für die er berechnet wurde. Er kann für jede Musterfunktion verschieden sein. Es gibt jedoch eine Klasse von stationären stochastischen Prozessen, bei denen die Scharmittelwerte und Zeitmittelwerte identisch sind. Man nennt derartige Prozesse ergodisch. Definition 3.29 Ergodizität Ein stationärer stochastischer Prozess heißt ergodisch, wenn die Zeitmittelwerte einer beliebigen Musterfunktion mit der Wahrscheinlichkeit eins mit den entsprechenden Scharmittelwerten übereinstimmen. Stationarität ist in jedem Fall die Voraussetzung für Ergodizität. Dies geht schon daraus hervor, dass die Mittelwerte instationärer stochastischer Prozesse zeitabhängig sind und somit nicht für alle Zeiten mit den zeitunabhängigen Zeitmittelwerten übereinstimmen können.

3 Zeitkontinuierliche Signale

76 Bemerkung 3.14 (Strenge und schwache Ergodizität)

Auch bei Ergodizität unterscheidet man zwischen Prozessen, die streng ergodisch oder schwach ergodisch sind. Bei streng ergodischen Prozessen gilt Definition 3.29 für alle Momente; bei schwach ergodischen Prozessen begnügt man sich damit, Austauschbarkeit nur für Momente erster und zweiter Ordnung zu fordern. • Nun ist zu untersuchen, unter welchen Voraussetzungen ein stationärer Zufallsprozess ergodisch ist. Der Zeitmittelwert für eine einzelne Musterfunktion, d. h. für ein festes ω ∈ Ω, stellt selbst eine Zufallsvariable dar: 1 my (ω) = lim T →∞ 2T

ZT

y (ω) (t) dt .

(3.91)

−T

Für my (ω) kann somit ein Erwartungswert berechnet werden:   ZT   1 E{my (ω)} = E lim y (ω) (t) dt . T →∞ 2T 

(3.92)

−T

Vertauscht man die Reihenfolge der Operationen, 1 T →∞ 2T

ZT

E{my (ω)} = lim

E{y (ω) (t)} dt ,

(3.93)

−T

so folgt schließlich aufgrund der Stationarität E{my (ω)} = E{y (ω) (t0 )} ,

t0 ∈ R .

(3.94)

Dieses Ergebnis besagt, dass der Mittelwert aller Zeitmittelwerte mit dem Scharmittelwert übereinstimmt. Daher ist my (ω) ein erwartungstreuer Schätzwert für den Scharmittelwert (erstes Moment). Sind zusätzlich alle Zeitmittelwerte my (ω) mit der Wahrscheinlichkeit eins einander gleich, so ist die Ergodizität für den Mittelwert gegeben. Gleichheit mit Wahrscheinlichkeit eins bedeutet hier, dass die Mittelwerte einer Anzahl von Musterfunktionen vom Scharmittelwert abweichen können, solange die Wahrscheinlichkeit, dass eine dieser Musterfunktionen auftritt, gleich null ist. Der mathematisch strenge Nachweis der Ergodizität lässt sich höchstens in Sonderfällen erbringen. Daher kann in der Regel die Eigenschaft der Ergodizität für einen stochastischen Prozess nur angenommen werden. Diese Annahme bedeutet, dass aus einer einzelnen Musterfunktion y (ω) (t) alle statistischen Eigenschaften des Zufallsprozesses bestimmt werden können. Bei einem ergodischen Prozess ist somit jede beliebige Musterfunktion in der Lage, den ganzen stochastischen Prozess zu vertreten.

3.2 Stochastische Signale

77

Beispiel 3.15: Schwingung mit zufälliger Phase als ergodischer Prozess Gegeben sei der Zufallsprozess y(t) mit den Musterfunktionen y (ω) (t) = sin(2πf t + ϕ(ω))

(3.95)

mit fester Frequenz f und einer Phase ϕ, die auf dem Intervall [0, 2π) gleichverteilt ist. Bei diesem Zufallsprozess erkennt man, dass sowohl der Zeitmittelwert – d. h. der Mittelwert einer Musterfunktion über alle Zeiten – als auch der Scharmittelwert – d. h. der Mittelwert aller Musterfunktionen zu einem Zeitpunkt – verschwinden. Durch Mittelung über eine Periode einer Schwingung bzw. über eine gleichverteilte Phase folgt: my (ω) = sin(2πf t + ϕ(ω)) = E{y(t)} = E{sin(2πf t + φ)} = 0 .

(3.96)

Analog lässt sich zeigen, dass bei der Berechnung der Autokorrelationsfunktion Schar- und Zeitmittelwerte ebenfalls übereinstimmen [Pue15]. Der Prozess y(t) ist somit schwach ergodisch. • Betrachtet man die Einteilung der Signale in die Signalklassen gemäß Abschnitt 3.1.1, so stellt sich die Frage, welche Signale Musterfunktionen ergodischer Prozesse sein können. Nach Beispiel 3.15 ist eine harmonische Schwingung mit zufälliger, gleichverteilter Phase ein ergodischer Prozess. Daraus schließt man, dass Leistungssignale Musterfunktionen ergodischer Prozesse sein können. Es kann sogar gezeigt werden, dass alle Musterfunktionen ergodischer Prozesse Leistungssignale sind. Energiesignale hingegen können keine Musterfunktionen ergodischer Prozesse sein, da sie nicht stationär sind: lim y(t) = 0

t→±∞



lim µn (t) = 0

t→±∞



keine Stationarität.

(3.97)

Da nach Voraussetzung Energiesignale für t → ±∞ verschwinden, verschwinden auch deren erste Momente. Damit ist die Zeitunabhängigkeit der Momente für nichttriviale Energiesignale verletzt. Die Momente eines ergodischen Prozesses werden nach den folgenden Regeln berechnet. Satz 3.16: Moment eines ergodischen Prozesses Das n-te Moment eines ergodischen Prozesses kann bei beliebigem ω0 ∈ Ω durch 1 µ = lim T →∞ 2T n

ZT 

n y (ω0 ) (t) dt

(3.98)

−T

bestimmt werden. Das erste Moment µ = µ1 entspricht dem Mittelwert.



Der Index ω0 der Musterfunktion bedeutet dabei, dass eine feste Musterfunktion zur Bestimmung herangezogen wird.

3 Zeitkontinuierliche Signale

78

Satz 3.17: Zentrales Moment eines ergodischen Prozesses Das n-te zentrale Moment eines ergodischen Prozesses wird bei beliebigem ω0 ∈ Ω durch ZT 

1 T →∞ 2T

β n = lim

n y (ω0 ) (t) − µ dt

(3.99)

−T



berechnet.

Die Bewertung der Ähnlichkeit stochastischer Prozesse erfolgt mittels der Korrelation, vgl. Bemerkung 3.13. Satz 3.18: Korrelation zweier ergodischer Prozesse Die Korrelationsfunktion zweier ergodischer Prozesse yj (t) und yk (t) wird bei beliebigen ω0 , ω1 ∈ Ω durch 1 ryj yk (τ ) = lim T →∞ 2T

ZT

(ω0 )

yj

∗(ω1 )

(t + τ ) yk

(3.100)

(t) dt

−T



bestimmt. Satz 3.19: Kovarianz zweier ergodischer Prozesse

Die Kovarianzfunktion zweier ergodischer Prozesse yj (t) und yk (t) ist bei beliebigen ω0 , ω1 ∈ Ω durch 1 T →∞ 2T

ZT

cyj yk (τ ) = lim

(ω0 )

(yj

(ω1 )

(t + τ ) − µj ) (yk

(t) − µk )∗ dt

(3.101)

−T



gegeben.

In den Sätzen 3.18 und 3.19 werden Korrelation bzw. Kovarianz zwischen einzelnen Musterfunktionen berechnet. Da ergodische Musterfunktionen Leistungssignale sind, können die Definitionen für Korrelation und Kovarianz für ergodische Musterfunktionen auch bei deterministischen Leistungssignalen angewandt werden.

3.2.3.5

Korrelation für Leistungssignale

Analog zu den ergodischen Musterfunktionen ist die Korrelation deterministischer Leistungssignale über das Innenprodukt als Kreuzkorrelation L rxy (τ )

1 = hx(t + τ ), y(t)it = lim T →∞ 2T

ZT −T

x(t + τ ) y ∗ (t) dt

(3.102)

3.2 Stochastische Signale

79

bzw. als Autokorrelation L ryy (τ )

1 = hy(t + τ ), y(t)it = lim T →∞ 2T

ZT

y(t + τ ) y ∗ (t) dt

(3.103)

−T

definiert. Der hochgestellte Index L gibt an, dass es sich um die Korrelation von LeisL tungssignalen handelt. Die Autokorrelationsfunktion rxx (τ ) zum Zeitpunkt τ = 0, L rxx (0) = hx(t), x(t)it = kx(t)k2 = Px ,

(3.104)

entspricht der mittleren Signalleistung. Beispiel 3.20: Autokorrelationsfunktion eines periodischen Signals Das Signal s(t) = A sin(2πf0 t + φ)

(3.105)

besitzt die Autokorrelationsfunktion L rss (τ )

1 = lim T →∞ 2T

ZT A sin(2πf0 (t + τ ) + φ) A sin(2πf0 t + φ) dt

(3.106)

−T

A2 = cos(2πf0 τ ) , 2

(3.107) •

die von der Phase unabhängig ist.

3.2.3.6

Korrelation für Energiesignale

Da Energiesignale nicht zu den ergodischen Prozessen gehören, ist die Berechnung einer Korrelation mit obigen Mitteln eigentlich nicht möglich. Für die wichtige Anwendung des Signalvergleichs lässt sich aber auch für Energiesignale eine Korrelationsfunktion angeben, bei deren Definition das Innenprodukt Anwendung findet: E rxy (τ )

= hx(t + τ ), y(t)it =

Z∞ −∞

x(t + τ ) y ∗ (t) dt < ∞ .

(3.108)

Der Zusatz E kennzeichnet die abweichende Berechnungsvorschrift und die Tatsache, dass es sich hier nicht mehr um eine Korrelationsfunktion im stochastischen Sinne handelt. Vielfach spricht man auch von Impulskorrelation. E Die Autokorrelationsfunktion rxx (τ ) zum Zeitpunkt τ = 0, E rxx (0) = hx(t), x(t)it = kx(t)k2 = Ex ,

ist gleich der Signalenergie.

(3.109)

3 Zeitkontinuierliche Signale

80

3.2.3.7

Eigenschaften der Korrelation

Unter den definierten Momenten kommt der Korrelation eine besondere Bedeutung zu. Auf sie soll daher in diesem Abschnitt noch einmal eingegangen werden. Die folgenden Beziehungen gelten dabei für Energie- und Leistungssignale. Die Autokorrelation eines instationären stochastischen Prozesses y(t) ist im Allgemeinen eine Funktion zweier Zeiten: ryy (t1 , t2 ) = hy(t1 ), y(t2 )i = E{y(t1 ) y∗ (t2 )} .

(3.110)

Hieraus folgt bei reellwertigen Prozessen die Vertauschbarkeit der beiden Zeiten: ryy (t2 , t1 ) = E{y(t2 ) y(t1 )} = E{y(t1 ) y(t2 )} = ryy (t1 , t2 ) .

(3.111)

Weiterhin lässt sich mit Hilfe der Schwarz’schen Ungleichung folgende Ungleichung zeigen: 2 ryy (t1 , t2 ) ≤ ryy (t1 , t1 ) · ryy (t2 , t2 ) , t1 , t2 ∈ R . (3.112) Es gilt nämlich |hy(t1 ), y(t2 )i|2 ≤ hy(t1 ), y(t1 )i · hy(t2 ), y(t2 )i ,

(3.113)

woraus (3.112) unmittelbar folgt. Bei stationären stochastischen Prozessen ist die Autokorrelation nur noch von τ = t1 − t2 abhängig. Wegen (3.111) folgt damit aus ryy (τ ) = ryy (−τ ) ,

(3.114)

dass die Autokorrelation stationärer Prozesse eine gerade Funktion ist. Die Ungleichung (3.112) vereinfacht sich daher zu |ryy (τ )| ≤ ryy (0) ,

τ ∈ R.

(3.115)

Dies besagt, dass die Autokorrelation eines stationären Zufallsprozesses bei τ = 0 dem Betrage nach ihren größten Wert erreicht. Bei der Formulierung der Ungleichung (3.115) wurde noch berücksichtigt, dass ryy (0) = E{|y(t)|2 } ≥ 0 ,

(3.116)

d. h. dass ryy (0) nicht negativ ist. Beschreibt der stochastische Prozess eine physikalische Größe – z. B. einen Strom, eine Spannung, einen Druck, eine Geschwindigkeit oder eine Kraft –, so ist ryy (0) proportional der mittleren Leistung bzw. der Energie. Sind die Musterfunktionen eines stationären Prozesses periodisch mit der Periodendauer T0 , d. h. gilt y (ω) (t) = y (ω) (t + T0 ) ,

t ∈ R,

(3.117)

so ist, wie man leicht nachrechnet, seine Autokorrelation ryy (τ ) = ryy (τ + T0 ) ,

τ ∈ R,

ebenfalls periodisch mit der Periodendauer T0 .

(3.118)

3.3 Deterministische Signale

3.3

81

Deterministische Signale

Unter deterministischen Signalen sind Signale zu verstehen, deren zeitlicher Ablauf analytisch beschreibbar und exakt voraussagbar ist. Im Gegensatz hierzu stehen die stochastischen Signale, die durch ihre Wahrscheinlichkeitsverteilungen beschrieben werden können und die im letzten Abschnitt behandelt wurden. Ihr zeitlicher Verlauf kann nicht mit Hilfe einer analytischen Beschreibung exakt vorausgesagt werden. Bei der Darstellung deterministischer Signale stellt die aus der Funktionalanalysis stammende Entwicklung in Basisfunktionen ein mächtiges Werkzeug dar. Die Entwicklung in vollständige, biorthogonale Funktionensysteme ist eine Verallgemeinerung. Sie wird im Bereich der Kurzzeit-Fourier-Transformation (Kap. 8) und der WaveletTransformation (Kap. 9) benutzt.

3.3.1

Orthogonale Funktionensysteme

Im Funktionenraum L2 (a, b) der Energiesignale ergibt sich mit dem Innenprodukt Gl. (3.13) und der Definition 2.10 einer orthonormalen Basis die folgende Bedingung für ein mit der Indexmenge I indiziertes orthonormales Funktionensystem (ϕi (t))i∈I : hϕi (t), ϕj (t)it =

Zb

ϕi (t) ϕ∗j (t) dt

 = δij ,

δij =

1 0

für i = j . sonst

(3.119)

a

Das Schmidt’sche Orthonormalisierungsverfahren (Satz 2.22) beschränkt sich nicht nur auf Vektoren, sondern kann auch auf Funktionen angewendet werden. Dies bietet die Möglichkeit, damit orthonormale Funktionensysteme zu konstruieren. In den folgenden zwei Beispielen werden bekannte Orthonormalsysteme kurz vorgestellt. Beispiel 3.21: Fourier-Reihe T -periodischer Funktionen in L2 (t0 , t0 + T ) Bei der Entwicklung von Funktionen bzw. deren periodischer Fortsetzung in ihre Fourier-Reihe treten folgende orthonormale Funktionen auf: 1 Fk (t) = √ ej2πkt/T , T

k ∈ Z.

(3.120)

Es ist zu beachten, dass die verwendeten Basisfunktionen orthonormal sind. Die im späteren Verlauf bei der Fourier-Reihe verwendeten Basisfunktionen sind hingegen nur orthogonal, da der Vorfaktor √1T fehlt. • Beispiel 3.22: Legendre-Polynome in L2 (−1, 1) 1/2 Die mit dem Vorfaktor ( 2k+1 multiplizierten Legendre-Polynome 2 ) r 2k + 1 1 dk 2 (t − 1)k , k ∈ N0 , Pk (t) = 2 2k k! dtk

(3.121)

3 Zeitkontinuierliche Signale

82

bilden in L2 (−1, 1) ein orthonormales Funktionensystem. Die ersten Polynome sind: r r   1 3 5 3 2 1 P1 (t) = P0 (t) = √ , t, P2 (t) = t − . (3.122) 2 2 2 2 2 • Genauso lassen sich aber auch eigene orthonormale Funktionensysteme bilden. Dies soll im folgenden Beispiel durch Anwendung des Schmidt’schen Orthonormalisierungsverfahrens gezeigt werden. Beispiel 3.23: Schmidt’sches Orthonormalisierungsverfahren Gegeben sind im Funktionenraum L2 (0, 3) folgende Funktionen: x1 (t) 16

x2 (t) 16

1

2

3 t

x3 (t) 16

1

2

3 t

−1

−1

1

2

3 t

−1

Durch sukzessive Anwendung des Schmidt’schen Orthonormalisierungsverfahrens in Verbindung mit der Definition des Innenproduktes im Funktionenraum L2 (0, 3) ergibt sich daraus ein orthonormales Funktionensystem. 1. Berechnen der Norm des Signals x1 (t) durch s Z 3 √ kx1 (t)k = x1 (t) x∗1 (t) dt = 2 .

(3.123)

0

2. Das Signal ϕ1 (t) folgt damit als x1 (t) ϕ1 (t) = √ . 2

(3.124)

3. Bestimmung des Innenprodukts hx2 (t), ϕ1 (t)it =

Z

3

x2 (t) ϕ∗1 (t) dt = 0 .

(3.125)

0

4. Daraus folgt nach (2.44) h2 (t) = x2 (t) .

(3.126)

3.3 Deterministische Signale

83

5. Berechnen der Norm s Z kh2 (t)k =

3

h2 (t) h∗2 (t) dt =



2.

(3.127)

0

6. Somit ergibt sich die zweite Basisfunktion x2 (t) ϕ2 (t) = √ . 2

(3.128)

7. Bestimmung der Innenprodukte hx3 (t), ϕ1 (t)it = hx3 (t), ϕ2 (t)it =

Z

3

x3 (t) ϕ∗1 (t) dt =

√ 2,

(3.129)

0

Z

3

x3 (t) ϕ∗2 (t) dt = 0 .

(3.130)

0

8. Daraus folgt nach (2.44) h3 (t) = x3 (t) −

√ 2 ϕ1 (t)

(3.131)

= x3 (t) − x1 (t) . 9. Berechnen der Norm s Z kh3 (t)k =

(3.132)

3

h3 (t) h∗3 (t) dt = 1 .

(3.133)

0

10. Für das Signal ϕ3 (t) gilt somit ϕ3 (t) = x3 (t) − x1 (t) .

(3.134)

Das Ergebnis des Schmidt’schen Orthonormalisierungsverfahrens sieht folgendermaßen aus: ϕ1 (t) 6

ϕ2 (t) 6

√1 2

ϕ3 (t) 6

√1 2

2

t − √12

2

t −1

2

3 t



3 Zeitkontinuierliche Signale

84

Orthonormale Funktionensysteme kann man verwenden, um andere Funktionen zu approximieren. Mit (2.41) und Bsp. 3.21 lässt sich eine T -periodische Funktion im Intervall [− T2 , T2 ] durch die Fourier-Reihe im Funktionenraum L2 (− T2 , T2 ) darstellen: ∞ 1 X yˆ(t) = √ ak ej2πkt/T T k=−∞

(3.135)

mit ak = hy(t), Fk (t)it =

T /2 Z

y(t) Fk∗ (t) dt

−T /2

1 =√ T

T /2 Z

y(t) e−j2πkt/T dt .

(3.136)

−T /2

Mit dem in Beispiel 3.23 bestimmten orthonormalen Funktionensystem kann man ebenso die Funktion y(t) = sin( 2π 3 t) approximieren. Die einzelnen Koeffizienten a1 bis a3 lauten dabei: a1 = 0,5064 ,

a2 = 0,5064 ,

a3 = 0,7162 .

(3.137)

Die approximierte Funktion yˆ(t) = a1 ϕ1 (t) + a2 ϕ2 (t) + a3 ϕ3 (t)

(3.138)

und die Originalfunktion y(t) sieht man in Abb. 3.4.

Abbildung 3.4: Sinusfunktion und Approximation durch die Basisfunktionen aus Bsp. 3.23.

Der Näherungsfehler kann durch Hinzunahme orthogonaler Basisfunktionen höherer Ordnung verringert werden (Bessel’sche Ungleichung).

Bemerkung 3.24 Die zur Approximation verwendeten Basissysteme müssen nicht unbedingt orthonormal sein. So sind beispielsweise die üblicherweise bei der Fourier-Reihe verwendeten Basisfunktionen nur orthogonal. Die Norm einer Funktion ist nur ein Skalar und somit nicht von größerer Bedeutung. Dieser Faktor wird bei der Berechnung der Koeffizienten mit einfließen. Wichtiger ist vielmehr die Tatsache, dass die verwendeten Basisfunktionen orthogonal sind, was eine zur Berechnung wesentliche Vereinfachung darstellt. •

3.3 Deterministische Signale

3.3.2

85

Biorthogonale Funktionensysteme

In einem biorthonormalen Funktionensystem verwendet man nicht ein, sondern zwei Funktionensysteme (ϕi (t))i∈I und (ψi (t))i∈I (Abschn. 7.3.3). Diese beiden Funktionensysteme sind durch die Biorthonormalitätsbedingung miteinander verbunden. Definition 3.30 Biorthonormalitätsbedingung Die beiden Funktionensysteme (ϕi (t))i∈I und (ψi (t))i∈I bilden ein biorthonormales System, wenn sie durch die Biorthonormalitätsbedingung hϕi (t), ψj (t)it =

Zb

ϕi (t) ψj∗ (t) dt = δij ,

 δij =

1 für i = j 0 sonst

(3.139)

a

verbunden sind. Sind die Innenprodukte (3.139) für i = j ungleich eins, so heißen beide Funktionensysteme biorthogonal. Angemerkt sei, dass hierbei im Allgemeinen ϕi (t) 6= ψi (t) ist und jedes Funktionensystem für sich alleine nicht orthonormal sein muss. Beide Funktionensysteme müssen jeweils den Funktionenraum L2 (a, b) vollständig aufspannen. Bei der Rekonstruktion eines beliebigen Signals (in diesem Fall eines Energiesignals) verwendet man das erste Funktionensystem zur Darstellung des Signals: y(t) =

X

ai ϕi (t) .

(3.140)

i∈I

Das erste Funktionensystem enthält die Synthesefunktionen. Die Koeffizienten dagegen werden mit den zu den Synthesefunktionen ϕi (t) biorthogonalen Analysefunktionen ψi (t) berechnet: ai = hy(t), ψi (t)it =

Zb

y(t) ψi∗ (t) dt .

(3.141)

a

Dies lässt sich mit Hilfe der Biorthogonalitätsbedingung (3.139) leicht zeigen: hy(t), ψj (t)it = =

DX

E ai ϕi (t), ψj (t)

i∈I

X

ai hϕi (t), ψj (t)it = {z } | i∈I = δij

(3.142)

t

X i∈I

ai δij = aj .

(3.143)

3 Zeitkontinuierliche Signale

86

3.4

Fourier-Reihe

Ein orthogonales Funktionensystem besonderer Bedeutung bilden die trigonometrischen Funktionen. Mit der Periodendauer T0 lassen sie sich wie folgt darstellen:   k k = 1, 2, 3, . . . (3.144) sk (t) = sin 2π t , T0   k k = 0, 1, 2, . . . (3.145) ck (t) = cos 2π t , T0 Diese erfüllen im Intervall [−T0 /2, T0 /2] die Orthogonalitätsbedingungen1 : T Z0 /2

hsi (t), sj (t)it =

 si (t) sj (t) dt =

0 für i 6= j , T0 /2 für i = j

(3.149)

−T0 /2

hci (t), cj (t)it =

T Z0 /2

−T0 /2

hsi (t), cj (t)it =

 für i 6= j 0 ci (t) cj (t) dt = T0 /2 für i = j 6= 0 ,  T0 für i = j = 0

(3.150)

si (t) cj (t) dt = 0 .

(3.151)

T Z0 /2

−T0 /2

Aufgrund ihrer Periodizität sind trigonometrische Funktionen besonders geeignet, um periodische Funktionen in eine Reihe trigonometrischer Funktionen zu entwickeln. Diese Reihe heißt Fourier-Reihe und die Entwicklung einer periodischen Funktion in ihre Fourier-Reihe bezeichnet man als harmonische Analyse. Satz 3.25: Fourier-Reihe Periodische Funktionen der Periodendauer T0 können durch die Fourier-Reihe     ∞  k k a0 X y(t) = ak cos 2π t + bk sin 2π t + (3.152) 2 T0 T0 k=1

dargestellt werden. Entsprechend der Überlegung, dass sich die Koeffizienten bei orthogonalen Funktionensystemen gemäß (2.41) durch Projektion berechnen lassen, und der Definition des Innenprodukts für Leistungssignale in (3.16), berechnet 1 Dies

lässt sich leicht mit den folgenden Beziehungen nachweisen [Zei13, S. 61]: 1 (cos(x − y) − cos(x + y)) , 2 1 cos x cos y = (cos(x − y) + cos(x + y)) , 2 1 sin x cos y = (sin(x − y) + sin(x + y)) . 2 sin x sin y =

(3.146) (3.147) (3.148)

3.4 Fourier-Reihe

87

man die Fourier-Koeffizienten ak und bk wie folgt: T Z0 /2

2 ak = T0

  k y(t) cos 2π t dt , T0

k = 0, 1, 2, . . .

(3.153)

  k y(t) sin 2π t dt , T0

k = 1, 2, 3, . . .

(3.154) •

−T0 /2 T Z0 /2

2 bk = T0

−T0 /2

Da die Integranden periodisch mit der Periode T0 sind, kann anstelle des Grenzübergangs T0 → ∞ über eine Periode integriert werden. Somit stellt die Bestimmung der Fourier-Koeffizienten eine Abbildung des Periodenintervalls einer Funktion y(t) in zwei Folgen (ak )k≥0 und (bk )k≥1 dar. In praktischen Anwendungen wird man oft nach endlich vielen Gliedern abbrechen. Man erhält somit eine Approximation der periodischen Funktion durch ein trigonometrisches Polynom. In zwei Beispielen werden nun die Fourier-Koeffizienten bestimmt und die Originalfunktion mittels eines trigonometrischen Polynoms mit diesen Koeffizienten approximiert. Beispiel 3.26: Fourier-Reihe der Rechteckfunktion Das periodische Rechtecksignal y(t) mit der Periode T0 = 2π  −1 für −π ≤ t < 0 y(t) = 1 für 0 ≤ t < π

(3.155)

soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die Fourier-Koeffizienten zu berechnen. Die Koeffizienten der Cosinusfunktionen, Zπ  k  1 (3.156) y(t) cos 2π t dt = 0 , ak = π T0 −π

verschwinden, da die Cosinusfunktion eine gerade Funktion und die Rechteckfunktion eine ungerade Funktion ist. Die Koeffizienten der Sinusfunktionen lassen sich einfach ermitteln: Zπ Zπ   k  2 k  1 (3.157) y(t) sin 2π t dt = sin 2π t dt bk = π T0 π T0 −π 0 π    2 T0 k 2 T0 =− (3.158) 1 + (−1)k+1 cos 2π t = π 2πk T0 π 2πk 0   4 für k ungerade = kπ (3.159)  0 für k gerade.

3 Zeitkontinuierliche Signale

88 1 0,5 0 −0,5 −1 −2

0

2

Abbildung 3.5: Mit Hilfe der Fourier-Reihe approximierte Rechteckfunktion.

Als eine mögliche Approximation werden die ersten drei von null verschiedenen Koeffizienten verwendet: !  1  sin(2π 3 t) sin(2π 5 t) 4 T0 T0 sin 2π t + . (3.160) + yˆ(t) = π T0 3 5 Die approximierte Rechteckfunktion ist in Abb. 3.5 dargestellt.



Beispiel 3.27: Fourier-Reihe der Dreieckfunktion Das periodische Dreiecksignal y(t) mit der Periodendauer T0 = 2π ( 1 + π2 t für −π ≤ t < 0 y(t) = 1 − π2 t für 0 ≤ t < π

(3.161)

soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die Fourier-Koeffizienten zu berechnen. Die Koeffizienten der Sinusfunktionen 1 bk = π

Zπ −π

 k  y(t) sin 2π t dt = 0 T0

(3.162)

verschwinden, da die Sinusfunktion eine ungerade und die Dreieckfunktion eine gerade Funktion ist. Die Koeffizienten der Cosinusfunktionen ergeben sich zu: Zπ

Zπ 

 k  2  t cos 2π t dt π T0 −π 0   π Zπ Z  k   k  2 2 = t cos 2π t dt cos 2π t dt − π T0 π T0

1 ak = π

0

2 k  y(t) cos 2π t dt = T0 π 

0

1−

(3.163)

(3.164)

3.4 Fourier-Reihe

89 1 0,5 0 −0,5 −1 −2

0

2

Abbildung 3.6: Approximation der Dreieckfunktion.

#π " k k  k  π 2 T0 4 cos(2π T0 t) t sin(2π T0 t) = + sin 2π t − 2 π 2πk T0 π (2π Tk0 )2 2π Tk0 0 0    4 (−1)k 1 4 =0− 2 + 0 − 2 − 0 = 2 2 1 + (−1)k+1 π k2 k k π  8  für k ungerade = k2 π2  0 für k gerade, k 6= 0. k6=0

(3.165) (3.166)

(3.167)

Für k = 0 muss man den Koeffizienten separat berechnen: 2 a0 = 2π

Zπ −π

2 y(t) dt = π

Zπ 

1−

2  t dt = 0 . π

(3.168)

0

Zur Approximation werden exemplarisch die ersten drei von null verschiedenen Koeffizienten verwendet: !  1  cos(2π 3 t) cos(2π 5 t) 8 T0 T0 yˆ(t) = 2 cos 2π t + . (3.169) + π T0 9 25 Die approximierte Dreieckfunktion erkennt man in Abb. 3.6.



Benutzt man die Fourier-Reihe nicht zur Synthese, sondern zur Analyse periodischer Funktionen, so ist zu untersuchen, wie die Fourier-Koeffizienten interpretiert werden können. Die Fourier-Koeffizienten ak und bk gehören zur trigonometrischen Funktion cos(2π Tk0 t) bzw. sin(2π Tk0 t) mit der Frequenz Tk0 . Somit geben ak und bk den Anteil einer Schwingung der Frequenz f = Tk0 an der Signalenergie an. Der Unterschied der beiden Koeffizienten liegt in der Phase. Dies ist aus folgender Beziehung ersichtlich:  k  k   k  q bk  ak cos 2π t + bk sin 2π t = a2k + b2k cos 2π t − arctan . (3.170) T0 T0 T0 ak

3 Zeitkontinuierliche Signale

90 Mit Ak =

q a2k + b2k

  bk ψk = − arctan ak

und

(3.171)

erhält man Amplitude und Phase der Schwingungen. Die Fourier-Reihe eignet sich also zur Bestimmung der Spektralanteile in periodischen Funktionen. Mit der exponentiellen Darstellung der trigonometrischen Funktionen,   k  1 k k ej2π T0 t + e−j2π T0 t , cos 2π t = T0 2   k  1  j2π Tk t −j2π Tk t 0 − e 0 e , sin 2π t = T0 2j

(3.172) (3.173)

erhält man die Fourier-Reihe in komplexer Schreibweise. Satz 3.28: Komplexe Darstellung der Fourier-Reihe Eine T0 -periodische Funktion y(t) lässt sich durch die Fourier-Reihe ∞ X

y(t) =

k

ck ej2π T0 t

(3.174)

k=−∞

in komplexer Schreibweise darstellen. Im Gegensatz zur reellen Darstellung gibt es nur noch eine komplexwertige Koeffizientenfolge (ck )k∈Z , ck ∈ C, mit T0

ck =

1 T0

Z2 −

k

y(t) e−j2π T0 t dt .

T0 2

(3.175) •

An dieser Stelle wird erneut auf eine Besonderheit der Fourier-Reihe hingewiesen, welche zu Verwirrung führen kann. Bemerkung 3.29 In Beispiel 3.21 wurde die Fourier-Reihe bereits eingeführt. Sie enthielt dort, als orthonormales Funktionensystem, den Vorfaktor √1T . Im Gegensatz dazu bildet die 0 hier benutzte Fourier-Reihe lediglich ein orthogonales Funktionensystem. Diese Notation hat sich in der heutigen Literatur eingebürgert. • Der Fourier-Koeffizient ck ist die komplexe Amplitude des Spektralanteils mit der diskreten Frequenz fk =

k , T0

k ∈ Z.

(3.176)

In solch einem Fall spricht man von einem Linienspektrum. Bemerkenswert ist zudem, dass der Index in der komplexen Darstellung der Fourier-Reihe in Z läuft. Dies bedeutet, dass es auch Spektralanteile mit negativen Frequenzen geben kann.

3.4 Fourier-Reihe

91

Beispiel 3.30: Negative Frequenzen Harmonische Schwingungen der Frequenz f lassen sich durch einen rotierenden Zeiger in der komplexen Zahlenebene darstellen. Bei reellen Schwingungen folgt deren Amplitude durch Projektion des Zeigers auf die reelle Achse. Exemplarisch lässt sich das reelle Signal cos(2πf t) durch den Realteil des komplexen Zeigers ej2πf t darstellen – der Zeiger dreht sich mit der Zeit t im mathematisch positiven Sinne (Abb. 3.7). Nach der Euler’schen Formel gilt: ej2πf t = cos(2πf t) + j sin(2πf t) ,

(3.177)

e−j2πf t = cos(2πf t) − j sin(2πf t) .

(3.178)

Durch Summation beider Gleichungen und Division durch zwei ergibt sich für die komplexe Darstellung der Cosinusschwingung: 1 j2πf t (e + e−j2πf t ) . (3.179) 2 Somit lässt sich eine reelle Schwingung durch Summation eines linksdrehenden und eines rechtsdrehenden Zeigers der Frequenzen f bzw. −f (positive bzw. negative Frequenzen) darstellen. Reelle Signale werden durch eine Überlagerung komplexer Schwingungen mit positiven und negativen Frequenzen dargestellt. • cos(2πf t) =

Abbildung 3.7: Entstehung negativer Frequenzen.

Mit Hilfe der komplexen Fourier-Koeffizienten ck kann man nun die komplexen Amplituden als eine Funktion der kontinuierlichen Frequenz f darstellen:  T0  Z2   1  y(t) e−j2πf t dt für f = Tk0 , k∈Z (3.180) C(f ) = T0  T  − 20   0 sonst. Trägt man diese Funktion auf, so erkennt man deutlich das Linienspektrum. Der Abstand zweier Spektrallinien entspricht dem reziproken Wert der Periodendauer: ∆f =

1 . T0

(3.181)

3 Zeitkontinuierliche Signale

92 Beispiel 3.31: Fourier-Reihe und Periodendauer

In diesem Beispiel soll noch einmal verdeutlicht werden, wie die Spektralanteile und deren Abstand von der Periodendauer des Signals abhängen. Hierzu legen wir die Reckteckfunktion y(t) mit der Zeitdauer T = 1 s gemäß  1 für 0 ≤ t ≤ T (3.182) y(t) = 0 sonst zugrunde und setzen diese mit der Periode T0 ≥ 2T fort. Wählt man die Periode dieser Fortsetzung zu T0 = lT mit l ≥ 2, so erhält man die Fourier-Koeffizienten: T0



k C T0



1 = T0

Z2

−j2π Tk t

y(t) e

0

1 dt = T0

ZT

  sin π kl −jπ k   l  e πk =   1 l

für k 6= 0

1,2

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 10

15

20

(3.184)

für k = 0.

1,2

5

(3.183)

0

T − 20

0

k

y(t) e−j2π T0 t dt

25

−5

0

5

Abbildung 3.8: Periodisches Signal und Linienspektrum für den Fall T0 = 2T . 1,2

1,2

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 0

5

10

15

20

25

−5

0

Abbildung 3.9: Periodisches Signal und Linienspektrum für den Fall T0 = 4T .

5

3.4 Fourier-Reihe

93

Betrachten wir die beiden Fälle l = 2 und l = 4 und multiplizieren die Amplitude zur Normierung mit l, so erhalten wir die in Abb. 3.8 bzw. Abb. 3.9 abgebildeten Funktionen. Man erkennt, dass sich bei einer Vergrößerung der Periodendauer die Abstände der Spektrallinien entsprechend (3.181) verringern. Dieses Resultat wird im nächsten Abschnitt erneut aufgegriffen. • Beispiel 3.32: Klangfarbe von Holzblasinstrumenten Der Klang der meisten melodischen Musikinstrumente ist in einem hinreichend kurzen Zeitintervall näherungsweise periodisch. Exemplarisch sei das für drei Holzblasinstrumente – eine B-Klarinette, ein B-Altsaxophon und eine Querflöte – am Beispiel der Note A4 (eingestrichenes A) gezeigt, die eine Grundfrequenz von ca. 440 Hz besitzt (Abb. 3.10). Bei der Klarinette und dem Saxophon in B-Stimmung entspricht das dem eingestrichenen G mit einer Grundfrequenz von etwa 392 Hz. Die zugehörigen Spektren bestehen im Wesentlichen aus den Spektrallinien des Grundtons und der Obertöne, deren Frequenzen annähernd ganzzahlige Vielfache der Grundfrequenz sind (Abb. 3.11). Die relative Ausprägung der Obertöne bezogen auf den Grundton sind charakteristisch für die Klangfarbe eines Instruments. B-Klarinette 0,1 0 -0,1 1

2

3

4

5

6

7

8

9

10

7

8

9

10

B-Saxophon 0,2 0 -0,2

1

2

3

4

5

6

Querflöte 0,2 0 -0,2 -0,4

1

2

3

4

5

6

7

8

Abbildung 3.10: Schalldrucksignale dreier Holzblasinstrumente.

9

3 Zeitkontinuierliche Signale

94 B-Klarinette

10000 5000 0

-4000

-3000

-2000

-1000

0

1000

2000

3000

4000

1000

2000

3000

4000

1000

2000

3000

4000

B-Saxophon

3000 2000 1000 0

-4000

-3000

-2000

-1000

0

Querflöte

6000 4000 2000 0

-4000

-3000

-2000

-1000

0

Abbildung 3.11: Betragsspektren der Signale aus Abb. 3.10.

Die Betragsspektren in Abb. 3.11 wurden mit der diskreten Fourier-Transformation berechnet (Abschnitt 5.5.1), die eine rechnertaugliche Approximation der im folgenden Abschnitt behandelten Fourier-Transformation darstellt. •

3.5

Fourier-Transformation

Die Fourier-Reihe hat sich als nützliches Werkzeug zur Bestimmung der Frequenzanteile periodischer Funktionen erwiesen. Um aber nicht nur periodische Signale, sondern auch nichtperiodische Signale durch ihr Spektrum beschreiben zu können, führt man formal den Grenzübergang der Periodendauer nach unendlich T0 → ∞ durch. Hierdurch wird die Frequenzauflösung ∆f beliebig fein, sie geht also gegen null. Dies resultiert aber für Energiesignale in einer verschwindenden Amplitudenfunktion in (3.180): T0 → ∞

=⇒

C(f ) = 0 ,

f ∈ R.

(3.185)

3.5 Fourier-Transformation

95

Statt der Amplitudenfunktion in (3.180) führt man deshalb eine Amplitudendichte ein: T0

C(f ) FC (f ) = = C(f ) T0 = ∆f

Z2

y(t) e−j2πf t dt .

(3.186)

T − 20

Der Grenzwert der Amplitudendichte (3.186) für T0 → ∞, d. h. für ∆f → 0, entspricht der Spektraldichte oder der Fourier-Transformierten Z∞ lim FC (f ) =

T0 →∞

y(t) e−j2πf t dt = Y (f ) .

(3.187)

−∞

Zur Herleitung der Rücktransformation wird die komplexwertige Fourier-Reihe in (3.174) mit Hilfe der Amplitudenfunktion C(f ) aus (3.180) umgeschrieben: # " ∞ ∞ X X k j2π T t j2πf t 0 ck e y(t) = (3.188) C(f ) e = k . k=−∞

f= T

k=−∞

0

Nun ersetzt man die Amplitudenfunktion C(f ) durch die Amplitudendichte FC (f ): # " ∞ X j2πf t (3.189) FC (f ) e ∆f k . C(f ) = FC (f ) ∆f ⇒ y(t) = k=−∞

f= T

0

Im Grenzübergang der Periodendauer T0 nach unendlich, T0 → ∞ ⇔ ∆f → 0, geht R P die Summe in das Integral , die Frequenzauflösung ∆f in das totale Differential df und die Amplitudendichte FC (f ) in die Fourier-Transformierte Y (f ) über: Z∞ y(t) =

Y (f ) ej2πf t df .

(3.190)

−∞

Hierdurch zerlegt man, analog zur Fourier-Reihe, das Signal y(t) in die Frequenzanteile Y (f ) der einzelnen kontinuierlichen Frequenzen f . Beispiel 3.33: Herleitung der Fourier-Transformation aus der Fourier-Reihe Dieses Beispiel zeigt exemplarisch die Entstehung der Fourier-Transformation aus der Fourier-Reihe. Hierzu greifen wir noch einmal das Beispiel 3.31 auf. Während wir dort die beiden Fälle T0 = 2T und T0 = 4T betrachtet hatten, wird an dieser Stelle der für T0 → ∞ stattfindende Prozess verdeutlicht. Hierzu liefert bereits T0 = 20T ein repräsentatives Resultat, welches in Abb. 3.12 dargestellt ist. Man erkennt, wie die diskrete Verteilung über die verschiedenen Frequenzen in eine kontinuierliche Frequenzverteilung übergeht. Man benötigt also zur Darstellung beliebiger nichtperiodischer Signale alle zur Verfügung stehenden Frequenzen und kann sich nicht wie beim periodischen Fall auf Frequenzen in gewissen

3 Zeitkontinuierliche Signale

96 1,2

1,2

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 0

5

10

15

20

25

−5

0

5

Abbildung 3.12: Periodisches Signal und Linienspektrum für den Fall T0 = 20T .

diskreten Abständen beschränken. Durch Aufzeichnen aller Frequenzlinien in den Abständen 1/20 entsteht der Eindruck einer geschlossenen Fläche, da die einzelnen Linien in der Abbildung nicht mehr aufgelöst werden können. •

3.5.1

Definition der Fourier-Transformation

Die Fourier-Transformation ist eine eigenständige Integraltransformation, die lediglich der Anschaulichkeit halber aus der Fourier-Reihe abgeleitet wurde. Im Folgenden wird diese Transformation formal definiert. Definition 3.31 Fourier-Transformation Die Fourier-Transformation bildet eine Funktion der Zeit y(t) in eine Funktion der Frequenz Y (f ) ab. Man schreibt symbolisch: y(t) ◦−• Y (f ) ,

Y (f ) = F{y(t)} ,

y(t) = F−1 {Y (f )} .

(3.191)

Die Transformationsvorschriften zur Signalanalyse

Y (f ) = y(t), ej2πf t t =

Z∞

y(t) e−j2πf t dt

(3.192)

−∞

bzw. zur Signalrekonstruktion oder Synthese

y(t) = Y (f ), e−j2πf t f =

Z∞

Y (f ) ej2πf t df

(3.193)

−∞

stellen Abbildungen des Zeitbereiches in den Frequenzbereich und umgekehrt dar. Die Fourier-Transformierte einer Zeitfunktion bezeichnet man auch als deren Spektrum.

3.5 Fourier-Transformation

97

Die Darstellung (3.193) für y(t) lässt sich in Analogie zur Fourier-Reihe in sehr anschaulicher Weise physikalisch deuten. Ist eine Funktion y(t) periodisch, so kann man sie als unendliche Summe von harmonischen Schwingungen darstellen. Deren Frequenzen sind die Vielfachen einer Grundfrequenz f0 = T10 . Eine analoge Struktur weist (3.193) auf. Hier ist die nichtperiodische Funktion y(t) ebenfalls aus harmonischen Schwingungen aufgebaut. Dabei sind aber nicht nur Schwingungen mit diskreten Frequenzen kf0 beteiligt, sondern grundsätzlich Schwingungen aller Frequenzen. Jede dieser Schwingungen ist mit ihrer infinitesimalen komplexen Amplitude Y (f ) df beteiligt. Ihre Summation führt zum Integral (3.193). Statt der Frequenz f kann man auch die Kreisfrequenz ω = 2πf verwenden. Dann ergeben sich mit dω = 2π df die beiden Fourier-Integrale in Kreisfrequenzschreibweise: Z∞ Y (ω) =

y(t) e−jωt dt ,

(3.194)

−∞

1 y(t) = 2π

Z∞

Y (ω) ejωt dω .

(3.195)

−∞

In der Literatur findet man beide Darstellungen [Doe76,Fö11,Jur64,OS75,Ach85,Pap77, SS67]. Wir haben uns für die Frequenzschreibweise entschieden, da sie aufgrund ihrer Symmetrie einfacher zu erlernen ist. Die Eigenschaften und Rechenregeln der Fourier-Transformation sind natürlich unabhängig von der Schreibweise. Wenn man aber Spektraldichten oder Zeitfunktionen aus einer Korrespondenztabelle entnimmt, muss man darauf achten, welche Schreibweise der jeweilige Autor verwendet. Bei den Fourier-Integralen handelt es sich um uneigentliche Integrale. Deshalb stellt sich die Frage nach deren Konvergenz. Wegen ∞ Z Z∞ −j2πf t y(t) e dt ≤ |y(t)| dt (3.196) −∞

−∞

konvergiert das Fourier-Integral sicherlich dann, wenn Z∞ −∞

|y(t)| dt < ∞

(3.197)

gilt, wenn also y(t) absolut integrierbar über R ist. Dann existiert auch das Umkehrintegral (3.193). Bemerkung 3.34 1. Ist der Definitionsbereich I endlich, d. h. ist y : I → C, so ist die Bedingung (3.197) für alle Energiesignale erfüllt.

3 Zeitkontinuierliche Signale

98

2. Für den unendlichen Definitionsbereich R ist dies nicht notwendigerweise erfüllt, wie das Beispiel y(t) = t−1 für t ∈ [1, ∞) zeigt. 3. Es lässt sich zeigen, dass die Fourier-Transformation auf Signale des L2 (R) erweitert werden kann [Gal08]. •

Die Bedingung der absoluten Integrierbarkeit ist allerdings nicht notwendig, sondern nur hinreichend. Die Fourier-Transformierte kann auch dann existieren, wenn (3.197) nicht erfüllt ist. Die mögliche Nichtexistenz des Fourier-Integrals soll an einem Beispiel gezeigt werden. Beispiel 3.35: Nichtexistenz des Fourier-Integrals Die Rampenfunktion  t für t ≥ 0 y(t) = 0 sonst

(3.198)

besitzt – wenn überhaupt – die Fourier-Transformierte ZT0 Y (f ) = lim

T0 →∞

t e−j2πf t dt .

(3.199)

0

Aus dem Integral ZT0 te

−j2πf t

T0 1 −j2πf t dt = e (−j2πf t − 1) (−j2πf )2 f 6=0

(3.200)

0

0

=

 −j2πf T0  1 e (j2πf T0 + 1) − 1 2 (2πf )

und der Dreiecksungleichung |a ± b| ≥ |a| − |b| ≥ |a| − |b|

(3.201)

(3.202)

wird mit Hilfe der Abschätzung 1  −j2πf T0  (j2πf T0 + 1) − 1 (3.203) (2πf )2 e 1 1 −j2πf T0 − |1| = e (j2πf T +1) |1+j2πf T | − 1 ≥ (3.204) 0 0 (2πf )2 (2πf )2 T0 groß



|2πf T0 | (2πf )2

T0 →∞

−→ ∞

deutlich, dass das Fourier-Integral in diesem Fall nicht existiert.

(3.205) •

3.5 Fourier-Transformation

99

Die Fourier-Transformation ist im Hilbert-Raum L2 (R) ein linearer, unitärer Operator, bei dem die Signalenergie erhalten bleibt. Es gilt die Parseval’sche Beziehung zwischen zwei Funktionen x(t) und y(t) hx(t), y(t)it = hX(f ), Y (f )if ,

(3.206)

welche sich leicht nachrechnen lässt: Z∞ X(f ) Y ∗ (f ) df hX(f ), Y (f )if =

(3.207)

−∞

Z∞ Z∞

−j2πf t1

x(t1 ) e

= −∞ −∞ Z∞ Z∞

y ∗ (t2 ) ej2πf t2 dt2 df

x(t1 ) y ∗ (t2 ) e−j2πf (t1 −t2 ) df dt1 dt2

−∞ −∞ −∞ Z∞ Z∞ −∞ −∞

dt1

(3.208)

−∞

Z∞

=

=

Z∞



x(t1 ) y (t2 ) δ(t1 − t2 ) dt2 dt1 =

Z∞

x(t1 ) y ∗ (t1 ) dt1

(3.209)

(3.210)

−∞

= hx(t), y(t)it .

(3.211)

wobei in (3.210) die Ausblendeigenschaft (3.270) des Dirac-Impulses genutzt wurde. Aus der Parseval’schen Beziehung folgt, dass die Fourier-Transformation unitär ist: ky(t)k2 = hy(t), y(t)it = hY (f ), Y (f )if = kY (f )k2 .

3.5.2

(3.212)

Eigenschaften der Fourier-Transformation

Die Fourier-Transformation ist ein wichtiges „Denkwerkzeug“, mit dem viele unterschiedliche Problemstellungen und Sachverhalte der Systemtheorie anschaulich behandelt werden können. In der Praxis rechnet man jedoch meist nicht konkret mit der Fourier-Transformation nach (3.192) und (3.193), denn die uneigentlichen Integrale sind im Allgemeinen unbequem. Vielmehr stellt man Zusammenhänge zwischen den Darstellungen im Zeit- und Frequenzbereich mit Hilfe einiger weniger Korrespondenzen, Operationen und Eigenschaften her. Eine Auflistung der gebräuchlichsten Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation findet man in Anhang A. Für die Abschätzung des Spektrums von Messsignalen ist der folgende Satz hilfreich. Satz 3.36: Fourier-Transformierte nichtnegativer reeller Signale Für die Fourier-Transformierte eines nichtnegativen reellen Zeitsignals y : R → R y(t) ≥ 0 ,

t ∈ R,

(3.213)

3 Zeitkontinuierliche Signale

100

gilt folgende Abschätzung: ∞ Z Z∞ −j2πf t |Y (f )| = y(t) e dt ≤ |y(t)| e−j2πf t dt | {z } −∞

Z∞ = −∞

−∞

|y(t)| dt =

(3.214)

=1

Z∞ y(t) dt = Y (0)

(3.215)

−∞

oder kürzer: y(t) ≥ 0 ,

t∈R

|Y (f )| ≤ Y (0) ,

=⇒

f ∈ R.

(3.216) •

Ein im weiteren Verlauf des Buches benötigter Satz beschäftigt sich mit der Transformierten von reellen Funktionen. Für die Fourier-Transformierte einer reellen Zeitfunktion y(t) gilt:  ∞ ∗ Z∞ Z ∗ −j2πf t   Y (f ) = y ∗ (t) ej2πf t dt (3.217) = y(t) e dt −∞

Z∞ =

−∞

y(t) e−j2π(−f )t dt = Y (−f ) .

(3.218)

−∞

Satz 3.37: Fourier-Transformation eines reellen Signals Für die Fourier-Transformierte eines reellen Zeitsignals y(t) ∈ R, t ∈ R, gilt Y ∗ (f ) = Y (−f )

(3.219)

und somit die Symmetrie des Betrages |Y (f )| = |Y (−f )|

(3.220)

und die Schiefsymmetrie der Phase arg{Y (f )} = − arg{Y (−f )} .

(3.221)

Aus dieser Eigenschaft folgen für Y (f ) = YR (f ) + j YI (f ) die Zusammenhänge YR (f ) = YR (−f ) ,

(3.222)

YI (f ) = −YI (−f )

(3.223)

und darüber hinaus |Y (f )|2 = Y (f ) Y ∗ (f ) = Y (f ) Y (−f ) .

(3.224) •

3.5 Fourier-Transformation

3.5.2.1

101

Faltung

Die Faltung ist ein Operator, der zwei Signale x(t) und y(t) miteinander verknüpft und als Ergebnis ein drittes Signal liefert. Sie ist wie folgt definiert: x(t) ∗ y(t) = hx(t − τ ), y ∗ (τ )iτ =

Z∞ −∞

x(t − τ ) y(τ ) dτ .

(3.225)

Genauso lässt sich die Faltung auch auf Frequenzfunktionen anwenden: ∗

X(f ) ∗ Y (f ) = hX(f − ν), Y (ν)iν =

Z∞ −∞

X(f − ν) Y (ν) dν .

(3.226)

Die Faltung zweier Signale x(t) und y(t) kann dadurch veranschaulicht werden, dass das Signal x(t) zunächst an der Ordinatenachse gespiegelt und zeitlich verschoben wird. Anschließend wird es mit dem Signal y(t) punktweise multipliziert, und schließlich wird das Ergebnissignal zeitlich aufintegriert. Diese Vorgehensweise ist in Abb. 3.13 grafisch illustriert.

Abbildung 3.13: Grafische Veranschaulichung der Faltung.

Aufgrund der herausragenden Bedeutung der Faltung im Kontext der Systemanalyse – worauf in Kapitel 4 ausführlich eingegangen wird – stellt sich die Frage, ob diese verhältnismäßig komplexe (und bei ihrer Implementierung ebenfalls rechenintensive) Operation auf einfachere Weise berechnet werden kann. Erfreulicherweise stellt sich dabei heraus, dass die Faltung zweier Signale bei Anwendung der Fourier-Transformation in eine Multiplikation ihrer Spektren überführt wird – und damit deutlich

3 Zeitkontinuierliche Signale

102 vereinfacht wird: F{x(t) ∗ y(t)} =

Z∞ Z∞ −∞ −∞ Z∞

x(t − τ ) y(τ ) dτ e−j2πf t dt −j2πf τ

Z∞

y(τ ) e

= −∞

−∞

(3.227)

x(t − τ ) e−j2πf (t−τ ) dt dτ

|

{z

= X(f )

(3.228)

}

= X(f ) · Y (f ) .

(3.229)

Aus diesem Ergebnis folgt unmittelbar die Kommutativität der Faltung: x(t) ∗ y(t) = F−1 {X(f ) · Y (f )} = F−1 {Y (f ) · X(f )} = y(t) ∗ x(t) .

(3.230)

Analog lässt sich zeigen, dass eine Multiplikation zweier Signale im Zeitbereich durch Fourier-Transformation in eine Faltung ihrer Spektren überführt wird:  ∞   ∞  Z Z x(t) · y(t) =  X(f ) ej2πf t df  ·  Y (ν) ej2πνt dν  (3.231) −∞

−∞

Z∞



Z∞

X(f ) 

= −∞ Z∞

−∞ −∞

=



f +ν = ζ dν = dζ

X(f ) Y (ζ − f ) ej2πζt dζ df

Z∞

 −∞ −∞ −1

=F

Y (ν) ej2π(f +ν)t dν  df

−∞

Z∞

= Z∞



(3.232)

(3.233)

 X(f ) Y (ζ − f ) df  · ej2πζt dζ

{X(f ) ∗ Y (f )} .

Für die Fourier-Transformation gilt also:



F{x(t) · y(t)} = x(t) · y(t), ej2πf t t = x(t), ej2πf t t ∗ y(t), ej2πf t t = F{x(t)} ∗ F{y(t)} .

(3.234) (3.235)

(3.236) (3.237)

Bemerkung 3.38 (Bedeutung der Faltung) Der Faltungsoperator wird häufig angewandt. Dies liegt daran, dass sich lineare Systeme durch eine Faltungsoperation realisieren lassen. Beispielsweise wird beim Entwurf von Filtern das gewünschte Frequenzverhalten vorgegeben und daraus eine das Filter charakterisierende Funktion berechnet. Anschließend kann das resultierende Antwortsignal des Filters auf ein bestimmtes Eingangssignal mittels einer Faltung mit dieser Funktion berechnet werden (vgl. Kapitel 4). •

3.5 Fourier-Transformation

3.5.2.2

103

Korrelation

Die Korrelation zweier Energiesignale ist nach (3.108) durch das Innenprodukt definiert: Z∞ E rxy (τ ) = hx(t + τ ), y(t)it = x(t + τ ) y ∗ (t) dt . (3.238) −∞

Sie kann auch als Faltung geschrieben werden: Z∞ E rxy x(t + τ ) y ∗ (t) dt (τ ) = −∞

t = −ξ dt = −dξ

(3.239)

−∞ Z∞ Z ∗ x(τ − ξ) y ∗ (−ξ) dξ x(−ξ + τ ) y (−ξ) dξ = =−

(3.240)

= x(τ ) ∗ y ∗ (−τ ) .

(3.241)

−∞



Bei Vertauschung der Reihenfolge der Korrelation folgt: Z∞ t+τ = ξ E rxy (τ ) = x(t + τ ) y ∗ (t) dt dt = dξ

(3.242)

−∞

Z∞ = −∞



x(ξ) y (ξ − τ ) dξ =

Z∞ −∞

y ∗ (ξ − τ ) x(ξ) dξ

∗ E = ryx (−τ ) .

(3.243)

(3.244)

Im Anhang A findet man in den Tabellen A.2, A.3 und A.4 Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation, die sich meist relativ einfach nachrechnen lassen, wie im Folgenden am Beispiel der Modulation gezeigt wird.

3.5.2.3

Zeitverschiebung, Frequenzverschiebung und Modulation

Zuerst wird gezeigt, dass eine Verschiebung im Zeitbereich mit einer Modulation im Frequenzbereich korrespondiert. Sei hierzu ein Signal y(t) mitsamt seiner FourierTransformierten Y (f ) gegeben. Die Fourier-Transformierte der um τ verschobenen Zeitfunktion ergibt sich als: Z∞ t−τ = ξ −j2πf t (3.245) y(t − τ ) e dt F{y(t − τ )} = dt = dξ −∞ Z∞

= −∞

y(ξ) e−j2πf (ξ+τ ) dξ = F{y(t)} · e−j2πf τ .

(3.246)

3 Zeitkontinuierliche Signale

104

Somit entspricht eine Verschiebung im Zeitbereich einer Modulation im Frequenzbereich. Analog kann nachgewiesen werden, dass eine Frequenzverschiebung einer Modulation im Zeitbereich entspricht:

F

−1

{Y (f − ν)} =

Z∞ −∞ Z∞

= −∞

j2πf t

Y (f − ν) e

df

f −ν = ζ df = dζ

Y (ζ) ej2πζt dζ · ej2πνt = F−1 {Y (f )} · ej2πνt .

(3.247)

(3.248)

Die meisten der in Anhang A aufgeführten Beziehungen lassen sich ähnlich leicht nachrechnen wie die eben bewiesene Zeitverschiebungs- und Modulationsregel. Oft genügt es, die Definition der Fourier-Transformation hinzuschreiben und diese mit der zu zeigenden Beziehung „im Hinterkopf“ umzuformen.

Beispiel 3.39: Bedeutung der Phase eines Signals Wie jede komplexwertige Größe lässt sich das Fourier-Spektrum getrennt nach Betrag und Phase angeben. Oftmals wird vereinfachend lediglich das Betragsspektrum dargestellt, welches beschreibt, welche Frequenzen wie stark am Aufbau eines Signals beteiligt sind. Nach dem Verschiebungssatz liefert jedoch das Phasenspektrum die wichtige Information über die „Lage“, an der diese Frequenzen auftreten. Dies soll am Beispiel eines Bildsignals g(x) mit x = (x, y)T veranschaulicht werden. Für eine Ortsverschiebung um den Vektor τ = (τx , τy )T ergibt sich der Zusammenhang: g(x − τ )

◦−•

G(f ) e−j2πf

T

τ

,

(3.249)

wobei f = (fx , fy )T den Ortsfrequenzvektor bezeichnet (vgl. Abschnitt 2.2.2). WeT gen |e−j2πf τ | = 1 ändert eine Verschiebung um τ nur die Phase des Spektrums, nicht aber den Betrag. Um dies zu illustrieren, werden die Bildsignale g1 (x) und g2 (x) nach Abb. 3.14(a) bzw. (b) einer Fourier-Transformation unterzogen. Im Fourier-Bereich wird dem Spektrum |G1 (f )| ejψ1 (f ) des ersten Signals die Phase ψ2 (f ) des zweiten Signals zugeordnet und umgekehrt. Anschließend werden beide Signale rücktransformiert, vgl. Abb. 3.14(c) und (d). Es wird deutlich, dass die Lage der Spektralanteile und somit die in den Originalbildern erkenntlichen Strukturen durch das Phasenspektrum und nicht durch das Betragsspektrum beschrieben werden. Ohne die Phaseninformation lässt sich ein Signal daher nicht rekonstruieren. •

3.5 Fourier-Transformation

105

(a) g1 (x)

(b) g2 (x)

(c) F−1 {|G1 (f )| ejψ2 (f ) }

(d) F−1 {|G2 (f )| ejψ1 (f ) }

Abbildung 3.14: Beispiel zur Bedeutung der Phase eines Signals.

3.5.2.4

Skalierung

Streckt oder staucht man die Zeitachse durch die Transformation t → a t, a 6= 0, so ergibt sich über

F{y(a t)} =

Z∞

−j2πf t

y(a t) e −∞

dt

τ = at dτ = a dt

(3.250)

3 Zeitkontinuierliche Signale

106  −∞ Z   f 1   y(τ ) e−j2π a τ dτ   a

für a < 0



=

Z∞   f 1   y(τ ) e−j2π a τ dτ   a −∞   f 1 Y = |a| a

(3.251) für a > 0 (3.252)

der Ähnlichkeitssatz der Fourier-Transformation für die skalierte Zeitachse. Eine Streckung von y(t) um den Faktor a bewirkt eine Stauchung des zugehörigen Spektrums −1 um den Faktor a sowie eine Skalierung mit |a| in Ordinatenrichtung. Eine Stauchung von y(t) um den Faktor a bewirkt eine Streckung des zugehörigen Spektrums −1 um den Faktor a sowie eine Skalierung mit |a| in Ordinatenrichtung.

3.5.3

Energie- und Leistungsdichte

Das Energiedichtespektrum ist bei Energiesignalen als die Fourier-Transformierte der Korrelation definiert. Mit Hilfe der Korrespondenz zwischen Faltung und Multiplikation und mit Hilfe von  ∞ ∗ Z∞ Z y ∗ (−t) e−j2πf t dt =  y ∗ (−t) ◦−• y(t) e−j2πf t dt = Y ∗ (f ) (3.253) −∞

−∞

lässt sich leicht der Zusammenhang zwischen dem Energiedichtespektrum und der Korrelation angeben: E rxy (t) = x(t) ∗ y ∗ (−t)

◦−•

E Sxy (f ) = X(f ) · Y ∗ (f ) .

(3.254)

L Entsprechend erhält man bei Leistungssignalen das Leistungsdichtespektrum Sxy (f ) L als die Fourier-Transformierte der Korrelation rxy (t): L rxy (t)

3.5.4

◦−•

L Sxy (f ) .

(3.255)

Cosinus- und Sinus-Transformation

Die Fourier-Transformation (3.192) Z∞ Y (f ) =

y(t) e−j2πf t dt

(3.256)

−∞

kann bei reellen Signalen y(t) mit der Euler’schen Formel ejϕ = cos ϕ + j sin ϕ zu Z∞ Y (f ) = −∞

y(t) [cos(2πf t) − j sin(2πf t)] dt

(3.257)

3.5 Fourier-Transformation Z∞ = −∞

107

y(t) cos(2πf t) dt − j ·

Z∞ y(t) sin(2πf t) dt

(3.258)

−∞

zerlegt werden. Da es sich um ein uneigentliches Integral handelt, ist dies natürlich nur dann möglich, wenn das Integral und die beiden entstehenden Teilintegrale absolut konvergent sind. Dies setzen wir hier voraus. Man kann also den Real- und den Imaginärteil einer Fourier-Transformierten Y (f ) auch getrennt berechnen. Die Teilintegrale sind bei reellen Signalen y(t) reell. Zerlegt man die reelle Funktion y(t) gemäß y(t) = yg (t) + yu (t)

(3.259)

in einen geraden und einen ungeraden Anteil yg (t) bzw. yu (t), 1 (y(t) + y(−t)) , 2 1 yu (t) = (y(t) − y(−t)) , 2 yg (t) =

(3.260) (3.261)

so kann man die zugehörige Fourier-Transformierte Z∞ Y (f ) = −∞

[yg (t) + yu (t)] cos(2πf t) dt − j

Z∞ [yg (t) + yu (t)] sin(2πf t) dt (3.262)

−∞

R∞

weiter vereinfachen. Ein Integral der Form −∞ f (t) dt verschwindet, falls über eine ungerade Funktion f (t) integriert wird. Der Cosinus ist eine gerade Funktion, der Sinus ist eine ungerade Funktion. Damit folgt nun für die Fourier-Transformierte eines reellen Signals y(t): Z∞ Y (f ) = −∞

yg (t) cos(2πf t) dt − j ·

Z∞ yu (t) sin(2πf t) dt .

(3.263)

−∞

Mit (3.260) und (3.261) ergibt sich: Z∞ Y (f ) = −∞ Z∞

1 (y(t) + y(−t)) cos(2πf t) dt − j 2

(y(t) + y(−t)) cos(2πf t) dt − j

= 0

Z∞

−∞

Z∞

1 (y(t) − y(−t)) sin(2πf t) dt 2

(y(t) − y(−t)) sin(2πf t) dt . (3.264)

0

Die Teilintegrale nennt man Cosinus- bzw. Sinus-Transformation des Signals y(t).

3 Zeitkontinuierliche Signale

108 Definition 3.32 Cosinus- bzw. Sinus-Transformation

Die Cosinus-Transformation bzw. Sinus-Transformation ist für reelle Signale y(t) durch folgende Integrale bestimmt: Z∞ YC (f ) = COS{y(t)} =

(y(t) + y(−t)) cos(2πf t) dt

(3.265)

0

Z∞ y(t) cos(2πf t) dt ,

=

(3.266)

−∞

Z∞ YS (f ) = SIN{y(t)} =

(y(t) − y(−t)) sin(2πf t) dt

(3.267)

0

Z∞ y(t) sin(2πf t) dt .

=

(3.268)

−∞

Satz 3.40: Zusammenhang mit der Fourier-Transformation Die Fourier-Transformation lässt sich nach (3.258) aus der Cosinus- und der SinusTransformation zusammensetzen: Y (f ) = YC (f ) − j · YS (f ) .

(3.269) •

Wenn von der zu transformierenden Funktion bekannt ist, dass sie gerade oder ungerade ist, besteht der Vorteil der Cosinus- bzw. Sinus-Transformation gegenüber der Fourier-Transformation darin, dass man sich bei der Berechnung der Fourier-Transformierten auf den Cosinus- bzw. Sinus-Teil beschränken kann. Verfügt man über keine Informationen über die zu transformierende Funktion, so entspricht die Cosinus-Transformierte der Fourier-Transformierten des geraden Anteils der Funktion, während sich die Sinus-Transformierte als Fourier-Transformierte des ungeraden Anteils ergibt.

3.6

Testsignale

Wie bereits in der Einleitung erwähnt, wird ein Signal durch eine Funktion der Zeit dargestellt. Aber nicht jede mathematische Zeitfunktion repräsentiert ein physikalisch erzeugbares Signal. Es erscheint jedoch zweckmäßig, auch physikalisch nicht realisierbare Signale als Modellsignale für theoretische Untersuchungen zu betrachten. Mit ihnen kann dann beispielsweise eine Korrespondenztabelle für die Fourier-Transformation aufgebaut werden.

3.6 Testsignale

109

Hierbei wird als Erstes der Dirac-Impuls δ(t) eingeführt. Dieser ist nicht als Funktion im klassischen Sinne darstellbar. Trotzdem ist es sinnvoll, sich mit ihm zu beschäftigen, denn die Fourier-Transformation ist bereits bei vielen geläufigen und naheliegenden Funktionen wie beispielsweise dem Einheitssprung σ(t), der Schwingung sin(2πf t) und dergleichen im üblichen Sinn nicht konvergent. Viele dieser Funktionen werden im Rahmen der Distributionentheorie mathematisch behandelt. An dieser Stelle soll auf eine Einführung in die Theorie der Distributionen jedoch verzichtet werden. Diese Theorie findet sich ausführlicher beispielsweise in [Fli91] oder [Unb02].

3.6.1

Dirac-Impuls

Der Dirac-Impuls ist eine verallgemeinerte Funktion, auch Distribution genannt, bei der sich nicht wie gewohnt jedem Wert t ein Funktionswert zuordnen lässt. Der DiracImpuls ist stattdessen durch seine Wirkung auf eine klassische Funktion y(t) definiert. Definition 3.33 Dirac-Impuls Der Dirac-Impuls δ(t), auch Delta-Distribution genannt, ist durch Z∞ y(t0 ) = −∞

y(t) δ(t − t0 ) dt

(3.270)

definiert. Man kann sagen, der Dirac-Impuls δ(t − t0 ) hat überall, mit Ausnahme des Punktes t0 , den Wert null. Außerdem ist der Dirac-Impuls gerade: δ(t) = δ(−t) .

(3.271)

Aus dieser Definition kann man z. B. sofort die Faltung einer Funktion y(t) mit dem zeitverschobenen Dirac-Impuls δ(t − t0 ) berechnen: y(t) ∗ δ(t − t0 ) =

Z∞

−∞

y(τ ) δ(t − τ − t0 ) dτ = y(t − t0 ) .

(3.272)

Jedoch sind bei obiger Definition die Möglichkeiten, mit Dirac-Impulsen zu rechnen, beschränkt. Um dieses Problem zu beseitigen, wird der Dirac-Impuls im Sinne der Distributionentheorie als Grenzwert δ(t) = lim

f →∞

sin(2πf t) πt

(3.273)

berechnet. Zur Überprüfung von (3.273) muss nach der Definition des Grenzwertes für Distributionen folgende Gleichung erfüllt sein: Z∞ y(t0 ) = lim

f →∞ −∞

y(t)

sin(2πf (t − t0 )) dt . π(t − t0 )

(3.274)

3 Zeitkontinuierliche Signale

110

Der exakte Beweis würde hier den Rahmen sprengen. Hierzu sei z. B. auf [Kro91] oder [Fli91] verwiesen. Die Fourier-Transformierte des zeitverschobenen Dirac-Impulses ergibt sich zu F{δ(t − t0 )} =

Z∞ −∞

δ(t − t0 ) e−j2πf t dt = e−j2πf t0 .

(3.275)

Der Dirac-Impuls selbst besitzt die Fourier-Transformierte F{δ(t)} = 1 .

(3.276)

Die Impulsreihe ∞ X

iT (t) =

k=−∞

δ(t − kT )

(3.277)

ist eine T -periodische Funktion. Setzt man deren komplexe Fourier-Koeffizienten nach (3.175) T

Z2

1 ck = T

k

δ(t) · e−j2π T t dt =

1 T

(3.278)

− T2

in die Synthesegleichung (3.174) der Fourier-Reihe ein, so folgt iT (t) =

∞ X 1 j2π k t e T T

(3.279)

k=−∞

und man erhält die Poisson’sche Summenformel ∞ X k=−∞

∞ 1 X j2π k t e T , δ(t − kT ) = T

(3.280)

k=−∞

die sich in späteren Rechnungen als sehr hilfreich erweisen wird.

3.6.2

Konstantes Signal

Das konstante Signal y(t) = 1

(3.281)

scheint auf den ersten Blick in der Realität zu existieren. Man vergisst hierbei aber, dass eine physikalische Größe nicht für alle Zeiten t ∈ R einen konstanten Wert ungleich null haben kann. Ansonsten wäre die Energie des Signals unendlich groß.

3.6 Testsignale

111

Die Fourier-Transformierte des konstanten Signals lässt sich mit Hilfe der Symmetrieeigenschaft der Fourier-Transformation, Y (t) ◦−• y(−f ) ,

(3.282)

und Gleichung (3.276) sofort wie folgt angeben: F{1} = δ(−f ) = δ(f ) .

3.6.3

(3.283)

Vorzeichenfunktion

Die Vorzeichenfunktion, oder auch Signumfunktion,  −1 für t < 0 sign(t) = 1 für t ≥ 0

(3.284)

spielt in der Signalverarbeitung und in der Nachrichtentechnik eine wichtige Rolle. Sie besitzt, wie z. B. in [Fö11] gezeigt wird, die Fourier-Transformierte2 F{sign(t)} =

3.6.4

1 . jπf

(3.285)

Einheitssprung

Das Signal  σ(t) =

für t < 0 für t ≥ 0

0 1

(3.286)

heißt Einheitssprung oder auch Sprungfunktion. Mit Hilfe der Beziehung σ(t) =

1 1 sign(t) + 2 2

(3.287)

zwischen Sprung- und Signumfunktion und der Linearitätseigenschaft der FourierTransformation lässt sich die Fourier-Transformierte des Einheitssprungs angeben: F{σ(t)} =

3.6.5

1 1 1 1 F{sign(t)} + F{1} = + δ(f ) . 2 2 j2πf 2

(3.288)

Komplexe Schwingung

Das Signal y(t) = ej2πf0 t

(3.289)

2 Abweichend von (3.284) wird in manchen Quellen alternativ sign(t) = 0 für t = 0 definiert. Hierbei handelt es sich um ein mathematisches Detail, das keinen Einfluss auf die Fourier-Transformierte hat.

3 Zeitkontinuierliche Signale

112

heißt komplexe Schwingung der Frequenz f0 . Die Fourier-Transformierte der komplexen Schwingung lässt sich wiederum mit Hilfe der Symmetrieeigenschaft (3.282) der Fourier-Transformation direkt angeben: y(t) = ej2πf0 t

◦−•

Y (f ) = δ(f − f0 ) .

(3.290)

Dieses Resultat lässt sich auch durch inverse Fourier-Transformation (3.193) der Funktion δ(f − f0 ) unter Beachtung der Eigenschaft (3.270) des Dirac-Impulses berechnen: Z∞

y(t) =

j2πf t

Y (f ) e

Z∞

df =

−∞

−∞

δ(f − f0 ) ej2πf t df = ej2πf0 t .

(3.291)

Bei Interpretation des Spektrums als Anteil der am Signal beteiligten Schwingungen ergibt sich also bei der harmonischen Schwingung der Frequenz f0 genau ein Spektralanteil an der „Stelle“ f0 . Die unendlich hohe Amplitude ist dadurch begründet, dass im Vergleich zur Fourier-Reihe aufgrund der kontinuierlichen Frequenzauflösung ein infinitesimal kleines Intervall betrachtet werden muss. Damit wird aus einem Anteil 1 · ∆f für ∆f → 0 ein Anteil der „Höhe unendlich“.

3.6.6

Rechteckfunktion

Für die Rechteckfunktion ( 1 für |t| ≤ rT (t) = 0 sonst

T 2

(3.292)

folgt als Fourier-Transformierte der Sinus cardinalis oder, kurz, die Sinc-Funktion3 : T /2 Z

Y (f ) =

e −T /2

=

−j2πf t

f 6=0

dt =



1 e−j2πf t −j2πf

T /2 = −T /2

T sin(πf T ) = T si(πf T ) = T sinc(f T ) πf T

ejπf T − e−jπf T j2πf

(3.293)

(3.294)

mit sin x sin(πx) und sinc(x) = . (3.295) x πx Um ein Gefühl für diesen Zusammenhang zu bekommen, ist in Abb. 3.15 eine Rechteckfunktion rT (t) der Dauer T = 1 s mit ihrer Spektralfunktion zu sehen. Man erkennt dabei, dass sich die Rechteckfunktion aus Schwingungen zahlreicher Frequenzen zusammensetzt, deren Anteil jedoch mit steigender Frequenz abnimmt. si(x) =

In der Literatur wird die Rechteckfunktion gelegentlich mit dem Vorfaktor T1 versehen. Dadurch wird die Fläche unter der Funktion auf eins normiert. Hier muss bei Verwendung anderer Quellen darauf geachtet werden, welche Definition der jeweilige Autor verwendet. 3 Die

Gleichung (3.293) gilt für f 6= 0; für f = 0 folgt aus (3.293) Y (0) = T mit der Regel von L’Hôpital.

3.6 Testsignale

113

1,5

1,5

1

1

0,5

0,5

0

0

−0,5 −2

−1

0

1

−0,5 −10

2

−5

0

5

10

Abbildung 3.15: Rechteckfunktion und Fourier-Transformierte für T = 1 s.

3.6.7

Exponentialimpuls

Aus dem Exponentialimpuls y(t) = e−at σ(t) ,

a ∈ R,

(3.296)

bildet man mit (3.192) die Fourier-Transformierte: ∞ Z∞ e−(a+j2πf )t −at −j2πf t Y (f ) = e e dt = − . a + j2πf 0

(3.297)

0

Nur wenn a > 0 ist, geht e−(a+j2πf )t für t → ∞ gegen null und es gilt: e−at σ(t)

1 , a + j2πf

◦−•

a > 0.

(3.298)

Diese Funktion wird mitsamt ihrer Fourier-Transformierten in Abb. 3.16 dargestellt. Da das Spektrum des Exponentialimpulses im Gegensatz zu der Fourier-Transformierten der Rechteckfunktion eine komplexwertige Funktion ist, ist in Abb. 3.16 der Betrag der Fourier-Transformierten aufgezeichnet. 1,5

1,5

1

1

0,5

0,5

0

0

−0,5

0

1

2

3

4

5

−0,5 −10

−5

0

5

Abbildung 3.16: Exponentialimpuls und Fourier-Transformierte für a = 1 Hz.

10

3 Zeitkontinuierliche Signale

114

3.6.8

Doppelseitige Exponentialfunktion

Von einer doppelseitigen Exponentialfunktion y(t) = e−a|t| ,

a ∈ R,

(3.299)

ausgehend, erhält man die Fourier-Transformierte: Z0 Y (f ) =

at −j2πf t

e e −∞

Z∞ dt +

e−at e−j2πf t dt

(3.300)

0

1 1 2a = + = 2 , a − j2πf a + j2πf a + (2πf )2

a > 0.

(3.301)

Die Funktion im Zeitbereich und das zugehörige Betragsspektrum sind in Abb. 3.17 dargestellt. 1,5

2,5 2

1

1,5

0,5

1 0,5

0

0

−0,5 −5

0

5

−0,5 −10

−5

0

5

10

Abbildung 3.17: Doppelseitiger Exponentialimpuls und Fourier-Transformierte für a = 1 Hz.

3.6.9

Exponentialsignal

Das komplexe Exponentialsignal y(t) = A · est

(3.302)

besitzt die komplexe Amplitude A = AR +jAI und den komplexen Frequenzparameter s = σ + jω. Ist ω = 0 und A = AR > 0 eine reelle Amplitude, so erhält man das reelle Exponentialsignal y(t) = AR · eσt .

(3.303)

Für σ > 0 wächst das Signal y(t) für t → ∞ über alle Grenzen, dagegen konvergiert es für σ < 0 gegen null. Dies ist in Abb. 3.18 dargestellt.

3.6 Testsignale

115

0

0

Abbildung 3.18: Reelles Exponentialsignal.

0

0

Abbildung 3.19: Imaginärteile komplexer Exponentialsignale.

Für A = AR lässt sich (3.302) zu y(t) = AR · e(σ+jω)t = AR · eσt (cos(ωt) + j sin(ωt))

(3.304)

mit dem Realteil yR (t) = AR · eσt cos(ωt)

(3.305)

und dem Imaginärteil yI (t) = AR · eσt sin(ωt)

(3.306)

umschreiben. Exponentialsignale gemäß (3.304) können aufklingende (σ > 0), abklingende (σ < 0) oder konstante (σ = 0) Schwingungen sein; siehe Abb. 3.19.

3 Zeitkontinuierliche Signale

116

Exponentialsignale mit reeller Amplitude und komplexem Frequenzparameter werden auch komplexe Exponentialsignale genannt. Wie (3.305) und (3.306) sowie Abb. 3.18 zeigen, treten reelle Exponentialsignale als Einhüllende von Real- und Imaginärteil komplexer Exponentialsignale auf. Für σ = 0 handelt es sich bei den Gleichungen (3.305) und (3.306) um Cosinus- bzw. Sinussignale. In (3.304) erhält man eine komplexe Schwingung mit der Amplitude AR . Der reelle Frequenzparameter ω = 2πf, welcher schon im Zusammenhang mit der Definition der Fourier-Transformation auftrat, heißt Kreisfrequenz.

3.6.10

Gauß-Impuls

In späteren Abschnitten wird des Öfteren der Gauß-Impuls auftreten, den wir schon bei der Charakterisierung der Normalverteilung als zugehörige Dichte kennengelernt hatten. Das nicht auf die Fläche eins normierte Signal lautet im Zeitbereich: 2

y(t) = e−at ,

a > 0.

(3.307)

Durch Fourier-Transformation von (3.307) ergibt sich: Z∞

−j2πf t

y(t) e

Y (f ) =

Z∞ dt =

2

e−(at

+j2πf t)

dt .

(3.308)

−∞

−∞

Der Exponent in (3.308) lässt sich wie folgt quadratisch ergänzen:  2  2 √ 2 √ jπf jπf jπf at + 2 at √ + √ − √ a a a  2  2 √ jπf jπf (at + jπf )2 π2 f 2 at + √ = − √ = + . a a a a

a t2 + j2πf t =

(3.309) (3.310)

Einsetzen in (3.308) ergibt: 2 2

Y (f ) = e

− π af

Z∞

e−

(at+jπf )2 a

dt .

(3.311)

−∞

Mit der Substitution u = at + jπf und du = a dt folgt schließlich: Y (f ) =

1 − π2 f 2 e a a

Z∞

e−

u2 a

r du =

π − π2 f 2 e a , a

(3.312)

−∞

wobei das Integral der Gauß-Funktion in (3.312) beispielsweise [Zei13] entnommen werden kann. Insgesamt ergibt sich für die Fourier-Transformierte des Gauß-Impulses ebenfalls eine Gauß-Funktion im Frequenzbereich. Beide Funktionen (3.307) und (3.312) sind in Abb. 3.20 für a = 5 s12 zu sehen.

3.6 Testsignale

117

2

2

1,5

1,5

1

1

0,5

0,5

0 −3

−2

−1

0

1

2

3

0 −3

−2

−1

0

1

Abbildung 3.20: Gauß-Impuls und Fourier-Transformierte für a = 5 2

2

1,5

1,5

1

1

0,5

0,5

0 −3

−2

−1

0

1

2

3

0 −3

2

2

1,5

1,5

1

1

0,5

0,5

0 −3

−2

−1

0

1

2

3

0 −3

2

3

1 . s2

−2

−1

0

1

2

3

−2

−1

0

1

2

3

Abbildung 3.21: Gauß-Impuls und Fourier-Transformierte für a = 1

1 s2

bzw. a = 9

1 . s2

Die Form des Gauß-Impulses im Zeit- und Frequenzbereich wird durch den Parameter a bestimmt. In Abb. 3.21 sind für die Fälle a = 1 s12 und a = 9 s12 noch einmal die GaußImpulse und die entsprechenden Fourier-Transformierten dargestellt. Man erkennt deutlich den Einfluss des Parameters a. Wird das Signal im Zeitbereich breiter, so verringert sich die Breite der Fourier-Transformierten und umgekehrt. Dies ist eine Eigenschaft, welche für alle Signale zutrifft und in Abschnitt 3.8.1 als „Satz

3 Zeitkontinuierliche Signale

118

über das Zeitdauer-Bandbreite-Produkt“ konkretisiert werden wird. Hierzu wird der Begriff „Breite“ im Zeit- und im Frequenzbereich mit Hilfe mathematischer Definitionen formuliert.

3.7

Besonderheiten der Fourier-Transformation

In diesem Abschnitt werden Auswirkungen der Fourier-Transformation auf Funktionen mit bestimmten Eigenschaften aufgezeigt. Der Leckeffekt befasst sich mit der Auswirkung, die eine Zeitbegrenzung auf die Fourier-Transformierte einer Funktion hat. Als zweiter Punkt wird dargestellt, was durch Fourier-Transformation und anschließende Rücktransformation an Unstetigkeitsstellen geschieht. Hier zeigt sich, dass sich der rekonstruierte Signalwert als das Mittel des rechts- und des linksseitigen Grenzwertes ergibt und dass immer ein in der Höhe vom Signal unabhängiger Überschwinger auftritt.

3.7.1

Leckeffekt

Die Fourier-Transformation betrachtet ein Signal y(t) im gesamten Zeitbereich R. In der Realität kann man aber ein Signal nur in einem beschränkten Zeitintervall [a, b] beobachten. Um zu untersuchen, inwieweit sich die Fourier-Transformierte über einem beschränkten Zeitintervall [a, b], Zb Ya,b (f ) =

y(t) e−j2πf t dt ,

(3.313)

a

von der eigentlichen Fourier-Transformierten Z∞ Y (f ) =

y(t) e−j2πf t dt

(3.314)

−∞

unterscheidet, beschreibt man die Zeitbeschränkung durch die Fensterfunktion  1 für a ≤ t ≤ b , (3.315) w(t) = 0 sonst welche die folgende Fourier-Transformierte besitzt: Z∞ Zb f 6=0 −j2πf t dt = e−j2πf t dt = W (f ) = w(t) e −∞

a

i e−jπf (b+a) h −jπf (b−a) = e − ejπf (b−a) −j2πf

 1  −j2πf b e − e−j2πf a (3.316) −j2πf (3.317)

3.7 Besonderheiten der Fourier-Transformation = e−jπf (b+a)

sin(πf (b − a)) . πf

119 (3.318)

Im Folgenden soll als Testsignal eine komplexe harmonische Schwingung y(t) = ej2πf0 t

(3.319)

mit der Frequenz f0 der Fourier-Transformation unterzogen werden. Aufgrund des in der Praxis beschränkten Beobachtungsintervalls [a, b] wird das Testsignal y(t) mit dem Fenster w(t) multipliziert, was die gefensterte Funktion yw (t) ergibt: yw (t) = y(t) · w(t) .

(3.320)

Die Fourier-Transformierte Yw (f ) des gefensterten Signals Yw (f ) = F{y(t) · w(t)} = Y (f ) ∗ W (f ) = W (f − f0 ) = e−jπ(f −f0 )(b+a) ·

sin(π(f − f0 )(b − a)) π(f − f0 )

(3.321) (3.322)

berechnet sich als Faltung beider Fourier-Transformierter. In Abb. 3.22 sind der Betrag |Y (f )| der Fourier-Transformierten einer komplexen harmonischen Schwingung y(t)

Abbildung 3.22: Ungefensterte und gefensterte komplexe harmonische Schwingung sowie deren Spektren.

3 Zeitkontinuierliche Signale

120

und der Betrag |Yw (f )| der Fourier-Transformierten einer im beschränkten Zeitintervall betrachteten Funktion yw (t) zu sehen. Während die Fourier-Transformierte der komplexen harmonischen Schwingung aus einem Dirac-Impuls mit unendlicher Amplitude bei der Frequenz f0 besteht, Y (f ) = δ(f − f0 ) ,

(3.323)

besitzt Yw (f ) bei allen Frequenzen endliche Werte. Aus dem Leistungssignal y(t) mit unendlicher Energie ist ein Energiesignal yw (t) geworden. k Die Nullstellen der Fourier-Transformierten Yw (f ) liegen bei den Frequenzen f0 + b−a , k ∈ Z \ {0}. Das Maximum von |Yw (f )| liegt bei der Frequenz f0 . Die Abstände zwischen den Nullstellen und der Lage des Maximums sind umgekehrt proportional zur Breite (b − a) des verwendeten Zeitfensters.

Das „Verschmieren“ des Dirac-Impulses aufgrund des endlichen Beobachtungsintervalls [a, b] nennt man Leckeffekt (engl. leakage). Als Nächstes betrachten wir ein Signal y(t) = ej2πf0 t + A · ej2π(f0 +∆f )t ,

|A|  1 ,

(3.324)

Abbildung 3.23: Ungefensterte und gefensterte Überlagerung zweier komplexer harmonischer Schwingungen sowie deren Spektren.

3.7 Besonderheiten der Fourier-Transformation

121

Abbildung 3.24: Ungefensterte und gefensterte Überlagerung zweier komplexer harmonischer Schwingungen sowie deren Spektren bei erhöhter Fensterbreite.

das aus zwei komplexen harmonischen Schwingungen besteht. Die Frequenz der zweiten Schwingung weiche von der Frequenz der ersten Schwingung nur minimal ab. Ihre Amplitude A sei aber sehr viel kleiner als die der ersten Schwingung. In Abb. 3.23 ist zu sehen, dass die zweite Frequenzlinie im Spektrum des gefensterten Signals kaum noch zu erkennen ist. Aufgrund des Leckeffekts wird das Spektrum der zweiten Schwingung von dem der ersten überdeckt. Der Leckeffekt kann reduziert werden, indem man die Breite des Beobachtungsintervalls [a, b] erhöht, welche 2 der „Hauptspektrallinie“ ist. Dies ist in Abb. 3.24 dargestellt. reziprok zur Breite b−a In Abschnitt 3.9 werden allgemeine Fensterfunktionen eingeführt. Der Leckeffekt tritt generell bei der Multiplikation eines Signals y(t) mit einer beliebigen Fensterfunktion w(t) auf. Dies gilt auch für Fensterfunktionen w(t) mit unendlicher Breite, aber endlicher Energie.

3.7.2

Gibbs’sches Phänomen

Im Folgenden wird untersucht, inwieweit ein Signal y(t) nach der Fourier-Transformation und anschließender Rücktransformation korrekt rekonstruiert wird. Dabei be-

3 Zeitkontinuierliche Signale

122 trachten wir die Fourier-Rücktransformation nach (3.193), Z∞ y(t) =

Y (f ) ej2πf t df ,

(3.325)

−∞

die als uneigentliches Integral als Grenzwert ZF y(t) = lim

F →∞ −F

Y (f ) ej2πf t df

(3.326)

geschrieben werden kann. Setzt man für Y (f ) die Fourier-Transformation (3.192) ein, so ergibt sich:  ∞  ZF Z  yˆ(t) = lim y(τ ) e−j2πf τ dτ  ej2πf t df . (3.327) F →∞ −F

−∞

Vertauscht man nun die beiden Integrale, so folgt   Z∞ ZF  ej2πf (t−τ ) df  y(τ ) dτ , yˆ(t) = lim F →∞ −∞

(3.328)

−F

wobei sich das innere Integral leicht berechnen lässt. Es folgt dann: Z∞ yˆ(t) = lim

F →∞ −∞

sin(2πF (t − τ )) y(τ ) dτ . π(t − τ )

(3.329)

Nun werden die Grenzwertbildung und das Integral vertauscht. Da im Sinne der Distributionentheorie lim

F →∞

sin(2πF (t − τ )) = δ(t − τ ) π(t − τ )

(3.330)

gilt [Fli91], folgt für stetige Funktionen y(t) Z∞ yˆ(t) = −∞

δ(t − τ ) y(τ ) dτ = y(t) ,

(3.331)

d. h. nach Hin- und Rücktransformation bleibt eine stetige Funktion erhalten. Im Folgenden soll nun eine stückweise stetige Funktion y(t) mit den Sprungstellen (ti )i∈I der Fourier-Transformation unterworfen werden. Bei der Rücktransformation soll geprüft werden, ob die entstehende Funktion yˆ(t) gleich der ursprünglichen Funktion y(t) ist.

3.7 Besonderheiten der Fourier-Transformation

123

Jede unstetige Funktion lässt sich folgendermaßen durch eine stetige Funktion und eine Summe von Sprüngen darstellen: X y(t) = yc (t) (3.332) + (y(ti +) − y(ti −)) σ(t − ti ) . | {z } i∈I stetiger Teil {z } | Sprünge

Ohne Beschränkung betrachtet die folgende Ausführung nur den Fall, dass die Funktion y(t) lediglich eine Unstetigkeitsstelle im Ursprung besitzt, d. h. es gilt y(t) = yc (t) + (y(0+) − y(0−)) σ(t) .

(3.333)

Setzt man (3.333) in (3.329) ein, so ergibt sich Z∞ yˆ(t) = lim

F →∞ −∞

sin(2πF (t − τ )) yc (τ ) dτ + π(t − τ )

+ lim (y(0+) − y(0−))

Z∞

F →∞

−∞

sin(2πF (t − τ )) σ(τ ) dτ . π(t − τ )

(3.334)

Mit obiger Grenzwertbetrachtung folgt daraus: Z∞

yˆ(t) = yc (t) + (y(0+) − y(0−)) · lim

F →∞ −∞

|

sin(2πF (t − τ )) σ(τ ) dτ . π(t − τ ) {z }

(3.335)

= σF (t)

Für den Ausdruck σF (t) erfolgt eine gesonderte Betrachtung. Man rechnet Z∞ σF (t) = −∞

sin(2πF (t − τ )) σ(τ ) dτ = π(t − τ )

Z∞ 0

sin(2πF (t − τ )) dτ . π(t − τ )

(3.336)

Mit der Substitution u = 2πF (t − τ ) ,

du = −2πF dτ

(3.337)

ergibt sich −∞ Z

σF (t) = 2πF t

Z0 = −∞

sin u 1 2F · du = u −2πF

sin u du + πu

2πF Z t

0

2πF Z t

sin u du πu

(3.338)

−∞

sin u du . πu

(3.339)

3 Zeitkontinuierliche Signale

124 Wegen Z0

sin u π du = u 2

(3.340)

−∞

erhält man schließlich 1 1 σF (t) = + 2 π

2πF Z t

sin u du . u

(3.341)

0

Das verbleibende Integral ist als Integralsinus bekannt. Insgesamt folgt daraus:  1 1 yˆ(t) = yc (t) + (y(0+) − y(0−)) ·  + lim 2 π F →∞

2πF Z t

 sin u  du . u

(3.342)

0

Diskutiert man das Ergebnis, so treten zwei Fragen auf: 1. Wie verhält sich die Funktion an der Stelle t = 0? Da σF (t = 0) =

1 2

ist, folgt

yˆ(0) = yc (0) +

1 (y(0+) − y(0−)) . 2

(3.343)

Nach der Rücktransformation in den Zeitbereich besitzt die resultierende Funktion an der Sprungstelle den Funktionswert der halben Sprunghöhe. Dies ist das Gibbs’sche Phänomen. 2. Wo und wie findet man dieses Phänomen in der Realität? Vorausgreifend gilt für das Ausgangssignal y(t) ◦−• Y (f ) eines LTI-Systems mit der Impulsantwort g(t) ◦−• G(f ) und dem Eingangssignal x(t) ◦−• X(f ) der Zusammenhang Y (f ) = G(f ) · X(f ) .

(3.344)

Das Ausgangssignal kann man also berechnen, indem man das Eingangssignal in den Fourier-Bereich transformiert, mit der Übertragungsfunktion G(f ) multipliziert und dann rücktransformiert. Bei den obigen Rechnungen für yˆ(t) wurde nur Fourier-transformiert und sofort rücktransformiert; dies entspricht einem System mit der Übertragungsfunktion G(f ) = 1 ,

(3.345)

welches aber in der Realität nicht vorkommt, da es kein System gibt, das beliebig hohe Frequenzen übertragen kann. Das heißt jedes reale System ist so gesehen

3.7 Besonderheiten der Fourier-Transformation

125

1 0,8 0,6 0,4 0,2 0 −0,05

0

0,05

Abbildung 3.25: Gibbs’sches Phänomen an der Sprungfunktion bei endlicher Frequenz F .

ein Tiefpass. Was passiert aber bei unseren obigen Rechnungen mit einem Tiefpass? Der Grenzwert für F geht nicht mehr bis unendlich, sondern bricht schon vorher ab: F → Fmax . Betrachten wir den Einheitssprung als ursprüngliche Funktion, y(t) = σ(t), so gilt für dessen Rekonstruktion

1 1 yˆ(t) = + 2 π

2πF Z max t

sin u du , u

(3.346)

0

was in Abb. 3.25 zu sehen ist. Der Überschwinger von etwa 9 % bleibt unverändert, solange Fmax endlich ist. In realen Systemen weisen Sprünge daher immer sogenannte Gibbs’sche Überschwinger auf. Abbildung 3.26 zeigt ein weiteres Beispiel aus dem Gebiet der Bildverarbeitung. Nach einer Bandbegrenzung des Originalbildes mit einem Tiefpass sind im Ergebnisbild deutliche Überschwinger in der Nähe der Kanten zu erkennen. Die Ausführungen zeigen deutlich, dass es an Unstetigkeitsstellen Probleme gibt: 1. Bei Verwendung der Fourier-Transformation wird an Sprungstellen nicht der exakte Funktionswert, sondern der Mittelwert zwischen dem linksseitigen und dem rechtsseitigen Grenzwert erreicht. Eine Verbesserung ist nicht möglich. 2. Bei einer T -periodischen Funktion, die zwischen den Funktionswerten y(−T /2) und y(T /2) einen Sprung hat, geht die Approximation mittels einer Fourier-Reihe durch den Mittelwert. Eine Verbesserung ist nicht durch eine Erhöhung der Ordnung der Fourier-Reihe zu erreichen (Gibbs’sche Überschwinger). Besser ist es, das Periodenintervall so zu legen, dass der Sprung nicht im Intervallinneren liegt.

3 Zeitkontinuierliche Signale

126

(a) Originalbild

(b) Ergebnis der Bandbegrenzung

Abbildung 3.26: Gibbs’sches Phänomen bei einem Bildsignal mit ausgeprägten Stufenkanten.

3.8

Allgemeine Signaleigenschaften

In diesem Abschnitt werden wichtige Eigenschaften von Energiesignalen sowie die Abschätzung von Spektren mittels des Riemann-Lebesgue’schen Lemmas behandelt.

3.8.1

Zeitdauer-Bandbreite-Produkt

Reale Signale sind energiebegrenzt. Es soll nun betrachtet werden, in welchem Zeitbzw. Frequenzbereich die endliche Signalenergie konzentriert ist. Definition 3.34 Mittlere Zeit und mittlere Frequenz In Analogie zur Wahrscheinlichkeitsrechnung werden die mittlere Zeit Z∞ ty =

t· −∞

|y(t)|2 1 dt = ht · y(t), y(t)i Ey Ey

(3.347)

und die mittlere Frequenz Z∞ fy =

f· −∞

1 |Y (f )|2 df = hf · Y (f ), Y (f )i Ey Ey

(3.348)

eines Energiesignals y(t) als erste Momente der auf die Signalenergie Ey = ky(t)k2 = kY (f )k2 normierten Energiedichten |y(t)|2 bzw. |Y (f )|2 berechnet, vgl. (3.67).

3.8 Allgemeine Signaleigenschaften

127

Bei reellen Signalen ist die spektrale Energiedichte |Y (f )|2 eine gerade Funktion, so dass die Definitionsgleichung (3.348) eventuell keinen Sinn ergibt. Alternativ kann die mittlere Frequenz fy vom analytischen Signal berechnet werden, dessen Spektrum für negative Frequenzen f < 0 verschwindet (vgl. Abschn. 4.6). Die Spektren realer Signale besitzen nur eine bestimmte Bandbreite, in der sich der wesentliche Anteil der Signalenergie konzentriert. Für die Zeitdauer und die Bandbreite eines energiebegrenzten Signals sind zahlreiche Definitionen denkbar und auch in Gebrauch. So kann man z. B. eine Schwelle ySchwelle legen, die proportional von der maximalen Höhe ymax des Signals abhängt, ySchwelle = ε ymax ,

0 < ε < 1,

(3.349)

und die Zeitdauer als diejenige Zeit festlegen, für die y(t) > ySchwelle

(3.350)

gilt. Eine andere Definition von Zeitdauer Teff und Bandbreite Feff eines Signals y(t) basiert auf einem Vergleich der Fläche unter der Funktion y(t) bzw. Y (f ) mit einem flächengleichen Rechteck der Höhe ymax bzw. Ymax . Die festgelegte Größe entspricht dann der Rechteckbreite, siehe Abb. 3.27. Wählt man ein nichtnegatives, energiebegrenztes Signal, so liegt nach Satz 3.36 der maximale Wert von Y (f ) bei f = 0.

Abbildung 3.27: Definition der Zeitdauer Teff über ein flächengleiches Rechteck.

Alternativ werden zur Definition von Zeitdauer ∆t und Bandbreite ∆f häufig die RootMean-Square-Definitionen (RMS-Definitionen) verwendet. Entsprechend der Standardabweichung in der Wahrscheinlichkeitsrechnung werden dabei die Zeitdauer und die Bandbreite eines Energiesignals y(t) über die zweiten zentrierten Momente der auf die Signalenergie Ey = ky(t)k2 = kY (f )k2 normierten Energiedichten berechnet. Definition 3.35 Zeitdauer und Bandbreite (RMS-Definitionen) Die Zeitdauer ∆t ist ein Maß für den Zeitbereich, in dem die wesentliche Energie des Signals lokalisiert ist, und berechnet sich aus ∆2t

Z∞ = −∞

(t − ty )2

1 |y(t)|2 dt = h(t − ty ) y(t), (t − ty ) y(t)i Ey Ey

(3.351)

3 Zeitkontinuierliche Signale

128 zu v u u 1 Z∞ u (t − ty )2 |y(t)|2 dt . ∆t = t Ey

(3.352)

−∞

Die Bandbreite ∆f ist ein Maß für den Frequenzbereich, in dem die wesentliche Energie des Signals lokalisiert ist, und berechnet sich aus der Varianz der normierten spektralen Energiedichte ∆2f

Z∞ = −∞

(f − fy )2

|Y (f )|2 1 df = h(f − fy ) Y (f ), (f − fy ) Y (f )i Ey Ey

(3.353)

zu v u u 1 Z∞ u (f − fy )2 |Y (f )|2 df . ∆f = t Ey

(3.354)

−∞

Will man die Zeit- bzw. Frequenzanteile bestimmen, in denen das Signal wesentliche Energieanteile enthält, so muss man dafür ein Vielfaches der Zeitdauer k ∆t bzw. der Bandbreite k ∆f heranziehen. Dies entspricht dem Vorgehen in der Wahrscheinlichkeitsrechnung, wo der Vertrauensbereich als Vielfaches der Standardabweichung berechnet wird [Pue15]. Nach der Definition von Zeitdauer und Bandbreite soll der Zusammenhang zwischen beiden Größen hergestellt werden. Dafür wird auf die Ableitung der Zeitfunktion dy(t) dt

◦−•

j2πf · Y (f )

(3.355)

der Satz von Parseval angewendet: Z∞  −∞

dy(t) dt

Z∞

2 dt =

−∞

4π 2 f 2 |Y (f )|2 df = 4π 2 Ey · ∆2f .

(3.356)

Aus der Schwarz’schen Ungleichung (2.14) folgt D E 2 t · y(t), dy(t) ≤ kt · y(t)k2 dt t



dy(t) 2

.

· dt

(3.357)

3.8 Allgemeine Signaleigenschaften

129

Werden Innenprodukt und Norm in Integralform ausgedrückt, so ergibt sich daraus:  ∞   ∞  2 Z Z  dy(t)  t2 · y 2 (t) dt ·  dt dt −∞

−∞

 ≥

Z∞

2  ∞ 2  Z  d 1 dy(t)  dt y 2 (t) dt = t t · y(t) dt 2 dt

(3.358)

−∞ 2

−∞

 ∞ Z∞ 1 1  2 y 2 (t) dt = Ey2 . − t y (t) = 4 4 −∞

(3.359)

−∞

Nach Auflösen der Integrale folgt 1 2 E 4 y und somit für das Zeitdauer-Bandbreite-Produkt die untere Schranke 1 . ∆t · ∆f ≥ 4π Ey ∆2t · 4π 2 Ey · ∆2f ≥

(3.360)

(3.361)

Satz 3.41: Unschärferelation Für das Zeitdauer-Bandbreite-Produkt jedes Signals gilt bei Verwendung der RMSDefinitionen die als Unschärferelation bekannte Abschätzung 1 . 4π

∆t · ∆f ≥

(3.362)

Hat ein Signal eine kurze Zeitdauer ∆t , so besitzt es eine große Bandbreite ∆f . Umgekehrt ist bei einem Signal mit geringer Bandbreite die Zeitdauer groß. • Bemerkung 3.42 Das Gleichheitszeichen in der Schwarz’schen Ungleichung gilt nach Bemerkung 2.12, falls t y(t) und y(t) ˙ linear abhängig sind, falls also −a t y(t) = y(t) ˙ gilt. Diese Differentialgleichung führt auf den Gauß-Impuls, der damit unter allen impulsförmigen Signalen bei dieser Definition von Zeitdauer ∆t und Bandbreite ∆f das kleinste Zeitdauer-Bandbreite-Produkt besitzt. Die beiden Funktionen in Zeit- und Frequenzbereich unterscheiden sich dann nur um einen Faktor. Man erhält als Lösung der Differentialgleichung 2

y(t) = e−at ,

a > 0,

im Zeitbereich und r π − π2 f 2 Y (f ) = e a a im Frequenzbereich.

(3.363)

(3.364) •

3 Zeitkontinuierliche Signale

130

3.8.2

Riemann-Lebesgue’sches Lemma

Für die Darstellung von Signalen im Frequenzbereich gibt es weitere nützliche Abschätzungen. Das Riemann-Lebesgue’sche Lemma liefert eine Abschätzung für das Betragsspektrum zeitbegrenzter Signale. Satz 3.43: Riemann-Lebesgue’sches Lemma Ist eine Funktion y(t) zeitbegrenzt, d. h. gilt y(t) = 0

für

|t| ≥ T0 ,

(3.365)

und existieren K beschränkte, stückweise stetige Ableitungen, dann gilt mit einer Konstante M ≥ 0 folgende Abschätzung: |Y (f )| ≤

M . |f |K+1

(3.366)

Für Linienspektren (f = k · ∆f ) gilt entsprechend: |Y (k∆f )| ≤

M . |k|K+1

(3.367)

Bei der Fourier-Reihe einer periodischen Funktion yp (t), die in ihren K Ableitungen beschränkt ist, gilt für die Fourier-Koeffizienten: |Yk | ≤

M . |k|K+1

(3.368) •

Bemerkung 3.44 Die K-te Ableitung soll also möglichst die letzte beschränkte, stückweise stetige Ableitung sein. Insofern gilt für ein m > 0 |y (K) (t)| < m ,

t ∈ R.

(3.369)

Des Weiteren darf aufgrund der stückweise geltenden Stetigkeit nur eine endliche Anzahl von Sprungstellen vorhanden sein. Gibt es bei einer Ableitung eine „Knickstelle“, die stetig aber nicht differenzierbar ist, so darf für die Ableitung an dieser Stelle entweder die rechtsseitige oder die linksseitige Ableitung verwendet werden. • Beweis 3.45 (Riemann-Lebesgue’sches Lemma) Für das Fourier-Spektrum des zeitbegrenzten Signals ZT0 Y (f ) = −T0

y(t) e−j2πf t dt

(3.370)

3.8 Allgemeine Signaleigenschaften

131

folgt nach partieller Integration: T0 ZT0 1 1 −j2πf t Y (f ) = e y(t) e−j2πf t y 0 (t) dt − −j2πf −j2πf −T0

(3.371)

−T0

 1 = y(T0 ) e−j2πf T0 − y(−T0 ) ej2πf T0 −j2πf ZT0 1 y 0 (t) e−j2πf t dt . + j2πf

(3.372)

−T0

Wegen y(±T0 ) = 0 sind die ersten Terme gleich null. Man erhält: 1 Y (f ) = j2πf

ZT0

y 0 (t) e−j2πf t dt .

(3.373)

−T0

Aufgrund der Stetigkeit der Ableitungen an der Stelle ±T0 besitzt y (k) (t) an der Stelle ±T0 jeweils den Wert y (k) (±T0 ) = 0 für k = 1, . . . , K − 1. Führt man nun die partielle Integration K-mal unter Beachtung der Tatsache durch, dass die beschränkte, stückweise stetige Ableitung y (K) (t) existiert, so ergibt sich für das Spektrum: 1 Y (f ) = (j2πf )K

ZT0

y (K) (t) e−j2πf t dt .

(3.374)

−T0

Mit Hilfe des zweiten Mittelwertsatzes der Integralrechnung, bei dem es mit einer monotonen Funktion f (x) und einer stetigen Funktion g(x) einen Punkt ξ ∈ (a, b) gibt, so dass Zξ

Zb

Zb g(x) dx + f (b)

f (x) g(x) dx = f (a) a

a

g(x) dx

(3.375)

ξ

gilt, folgt mit g(x) = e−j2πf t ,

f (x) = y (K) (t) ,

a = −T0 ,

b = T0

(3.376)

für die K-fach partiell integrierte Fourier-Transformierte:  Y (f ) =

1  (K) y (−T0 ) (j2πf )K



−T0

e−j2πf t dt + y (K) (T0 )

ZT0 ξ

  e−j2πf t dt (3.377)

3 Zeitkontinuierliche Signale

132

"  1 1 = y (K) (−T0 ) e−j2πf ξ − ej2πf T0 (j2πf )K −j2πf | {z } Betrag ≤ 2

+y

(K)

#  1 −j2πf T0 −j2πf ξ (T0 ) e −e . −j2πf | {z }

(3.378)

Betrag ≤ 2

Durch Betragsbildung erhält man die Abschätzung: |Y (f )| ≤

  2 (K) (K) |y (−T )| + |y (T )| . 0 0 |2πf |K+1

(3.379)

Nach Voraussetzung des 2. Mittelwertsatzes der Integralrechnung muss die vor das Integral gezogene Funktion monoton sein. Da man aber jede beliebige Funktion als Summe einer monoton wachsenden und einer monoton fallenden Funktion zerlegen kann, (K)

y (K) (t) = y1

(K)

(t) + y2

(t) ,

(K)

y1

(t) % ,

(K)

y2

(t) & ,

(3.380)

und daraus die Abschätzung (K)

|y (K) (t)| ≤ |y1

(K)

(t)| + |y2

(t)|

(3.381)

erhält, ergibt sich insgesamt |Y (f )| ≤

  2 (K) (K) (K) (K) (T )| . (−T )| + |y (T )| + |y (−T )| + |y |y 0 0 0 0 2 2 1 1 |2πf |K+1

Mit M=

  2 (K) (K) (K) (K) (T )| (−T )| + |y (T )| + |y (−T )| + |y |y 0 0 0 0 2 2 1 1 (2π)K+1

(3.382)

folgt die Behauptung |Y (f )| ≤

M . |f |K+1

(3.383)

Bemerkung 3.46 1. Der Beweis besagt nicht, dass die Abschätzung nur dann gültig ist, wenn man die „letzte mögliche“ Ableitung verwendet. Natürlich kann man nur k < K Ableitungen nehmen. Dadurch wird die Abschätzung nicht falsch, sondern nur schlechter. Mehr als K Ableitungen sind dagegen nicht möglich, da eventuell die (K + 1)-te Ableitung Dirac-Impulse enthält. Auf solche Funktionen ist der 2. Mittelwertsatz der Integralrechnung nicht mehr anwendbar.

3.8 Allgemeine Signaleigenschaften

133

2. Die Voraussetzung war, dass die Zeitfunktion y(t) zeitbegrenzt ist. Dies gilt dann natürlich auch für ihre Ableitungen y (K) (t). Für ihre monotonen Kom(K) (K) ponenten y1 (t) und y2 (t) gilt dies aber im Allgemeinen nicht. Somit ist es möglich, dass eine von ihnen zum Zeitpunkt t = ±T0 einen Funktionswert 6= 0 besitzen kann. • Da das Verständnis des Riemann-Lebesgue’schen Lemmas nicht einfach ist, folgt ein ausführliches Beispiel, welches gerade auch die Problematik der monotonen Komponenten behandelt. Beispiel 3.47: Dreieckimpuls Gegeben sei der in Abb. 3.28 dargestellte Dreieckimpuls y(t). Für diesen wird zuerst die Fourier-Transformierte auf herkömmliche Art – z. B. anhand einer Korrespondenztabelle – berechnet: Z∞ Y (f ) =

y(t) e−j2πf t dt =

[sin(πf )]2 . (πf )2

(3.384)

−∞

Anschließend folgt die Abschätzung des Spektrums mittels des Riemann-Lebesgue’schen Lemmas. Hierzu bestimmt man die letzte beschränkte stückweise stetige Ableitung. Dies ist bereits die erste Ableitung, d. h. K = 1. Die Ableitung selbst ist in Abb. 3.29 abgebildet. Für die Bestimmung der Konstanten M benötigt man die beiden monotonen Funktionen y10 (t) und y20 (t), welche in Abb. 3.30 bzw. Abb. 3.31 abgebildet sind. Aus den beiden Skizzen für y10 (t) und y20 (t) liest man ab: y10 (−T0 ) = 0 ,

y20 (−T0 ) = 0 ,

y10 (T0 ) = 2 ,

y20 (T0 ) = −2 .

(3.385)

Daraus ergibt sich wegen K = 1   2 (K) (K) (K) (K) M= (T )| (−T )| + |y (T )| + |y (−T )| + |y |y 0 0 0 0 2 2 1 1 (2π)K+1 2 = 2. (3.386) π y 0 (t) 6 1

y(t) 1 6 @ @

1 −1

@ −T0 −1

@ @ 1

T0 t

Abbildung 3.28: Dreieckimpuls.

−T0

−1

T0 t

Abbildung 3.29: Ableitung des Dreieckimpulses.

3 Zeitkontinuierliche Signale

134 y10 (t) 6 2

−1

y20 (t) 6

1 -

1

−T0 −1

1

T0 t

Abbildung 3.30: Monoton steigender Anteil.

−2

−T0

T0 t

Abbildung 3.31: Monoton fallender Anteil.

Als Abschätzung entsteht somit |Y (f )| ≤

2 . (π|f |)2

(3.387)

Dies ist offensichtlich erfüllt: [sin(πf )]2 2 ≤ . |Y (f )| = 2 (πf ) (π|f |)2

(3.388)

Eine weitere Möglichkeit der Abschätzung ist die in Satz 3.36 gezeigte Aussage y(t) ≥ 0 ,

t∈R

=⇒

|Y (f )| ≤ Y (0) ,

f ∈ R,

(3.389)

welche auf |Y (f )| ≤ 1 führt. √



Im Bereich [ −π 2 , π2 ] ist die Abschätzung gemäß Satz 3.36 besser als die Abschätzung mittels des Riemann-Lebesgue’schen Lemmas. Deshalb wird man beide Abschätzungen verwenden, um alle zur Verfügung stehenden Informationen zu nutzen. Beide Abschätzungen für das Spektrum des Dreieckimpulses sind mitsamt des tatsächlichen Spektrums in Abb. 3.32 eingezeichnet. • 2 1,5 1 0,5 0

−2

−1

0

1

2

Abbildung 3.32: Tatsächliches Betragsspektrum des Dreieckimpulses (—) sowie Abschätzungen nach Satz 3.36 (—) und Satz 3.43 (– –).

3.9 Verwendung von Fensterfunktionen

3.9

135

Verwendung von Fensterfunktionen

In Abschnitt 3.7.1 wurde bereits der Begriff der Fensterfunktion eingeführt, die einer Multiplikation im Zeitbereich und einer Faltung im Frequenzbereich entspricht. Dieser Begriff wird hier genauer spezifiziert. Definition 3.36 Fensterfunktion Eine Fensterfunktion w(t) ist ein Energiesignal, das mit einem Signal y(t) multipliziert wird und folgende Charakteristika aufweist: • Die Energie konzentriert sich in einem endlichen Zeitraum, welcher ein Vielfaches der Zeitdauer ∆t beträgt. • Die Fensterfunktion ist bei geeigneter Verschiebung eine zur y-Achse symmetrische Funktion. Durch Multiplikation eines Signals y(t) mit einer Fensterfunktion w(t) entsteht das gefensterte Signal yw (t) = y(t) · w(t) .

(3.390)

Die Fourier-Transformierte eines gefensterten Signals yw (t), Z∞ Yw (f ) =

−j2πf t

yw (t) e

Z∞ dt =

−∞

y(t) · w(t) e−j2πf t dt ,

(3.391)

−∞

lässt sich mittels der Korrespondenz zwischen Multiplikation und Faltung angeben: Yw (f ) = F{y(t) · w(t)} = Y (f ) ∗ W (f ) .

(3.392)

Die Fourier-Transformierte Yw (f ) des gefensterten Signals yw (t) entspricht also der Faltung der Fourier-Transformierten Y (f ) des Originalsignals y(t) mit der FourierTransformierten W (f ) der Fensterfunktion w(t). Das Spektrum Yw (f ) des gefensterten Signals ist gegenüber dem nicht gefensterten Spektrum Y (f ) verfälscht. Die Fourier-Transformierte Yw (f ) des gefensterten Signals yw (t) muss der FourierTransformierten Y (f ) des Originalsignals y(t) entsprechen, wenn das Fenster w(t) ≡ 1 verwendet wurde. Das Fenster w(t) ≡ 1 besitzt die Fourier-Transformierte W (f ) = δ(f ), und bei der Faltung einer Funktion mit dem Dirac-Impuls ist das Ergebnis die Funktion selbst. Die Tatsache, dass bei unendlich breitem Zeitfenster das dazugehörige Spektrum infinitesimal schmal ist, ergibt sich aus dem Zeitdauer-BandbreiteProdukt (3.362). In diesem Zusammenhang hatten wir den Gauß-Impuls −at2

w(t) = e

r ◦−•

W (f ) =

2

π − (πf ) a e a

(3.393)

136

3 Zeitkontinuierliche Signale

als die Funktion mit dem kleinsten Zeitdauer-Bandbreite-Produkt kennengelernt. Somit ist also zu erwarten, dass bei Verwendung des Gauß-Impulses als Fensterfunktion die Auswirkung des Leckeffekts auf die Fourier-Transformierte minimiert wird. Trotz der Fensterung im Zeitbereich wird die Fourier-Transformierte insgesamt weniger verfälscht als z. B. bei einer Fensterung mit einem Rechteckfenster. Beispiel 3.48: Fensterung zur Reduktion des Leckeffekts Zur Veranschaulichung wird das aus zwei harmonischen Schwingungen zusammengesetzte Signal aus Abb. 3.23 statt mit einem Rechteckfenster mit dem GaußImpuls gleicher Zeitdauer gefenstert. Das Ergebnis ist in Abb. 3.33 (Mitte) dargestellt. Wird nun dieser Gauß-Impuls gleicher Zeitdauer zusätzlich noch mit einem Rechteckfenster multipliziert, so wird dessen Spektrum etwas stärker verfälscht. Das Resultat ist ebenfalls in Abb. 3.33 (unten) zu sehen.

Abbildung 3.33: Ungefensterte (oben) und gefensterte (Mitte, unten) harmonische Schwingungen und zugehörige Spektren.

Man erkennt deutlich, dass die resultierende Fourier-Transformierte viel weniger verschmiert ist als bei ausschließlicher Verwendung des Rechteckfensters. Die zweite harmonische Schwingung mit der kleineren Amplitude ist jetzt deutlich zu erkennen. •

3.10 Aufgaben

3.10

137

Aufgaben

Aufgabe 3.1: Energiesignale Prüfen Sie, ob es sich bei dem Signal x(t) = e−t · sin(2πf t) · σ(t) um ein Energiesignal handelt.

Aufgabe 3.2: Legendre-Polynome Gegeben sind die Funktionen Bk (x) = xk ,

k = 0, 1, 2, . . . ,

x ∈ [−1, 1] .

(a) Zeigen Sie, dass die Funktionen {Bk (x)} im Intervall −1 ≤ x ≤ 1 kein Orthonormalsystem bilden. (b) Durch das Schmidt’sche Orthonormalisierungsverfahren erhält man im Intervall −1 ≤ x ≤ 1 die orthonormalisierten Polynome Pk (t), welche auch Legendre-Polynome genannt werden. Bestimmen Sie P0 (x), P1 (x) und P2 (x).

Aufgabe 3.3: Approximation von Funktionen (a) Gegeben ist die Funktion π  f (x) = cos x , 2

−1 ≤ x ≤ 1 .

Approximieren Sie die Funktion f (x) durch eine Linearkombination der Legendre-Polynome bis zur zweiten Ordnung: fˆ(x) =

2 X

bi Pi (x) .

i=0

(b) Gegeben ist die Funktion π  f (x) = cos x , 2

−2 ≤ x ≤ 2 .

Approximieren Sie die Funktion f (x) durch die ersten Terme der normierten Fourier-Reihe.

3 Zeitkontinuierliche Signale

138 Aufgabe 3.4: Faltung im Zeit- und im Frequenzbereich Bestimmen Sie die Faltung der Funktion ( 1 für |t| ≤ T2 y(t) = rT (t) = 0 für |t| > T2 mit sich selbst durch Berechnung (a) im Zeitbereich und (b) über den Weg im Frequenzbereich. Aufgabe 3.5: Faltung

Ordnen Sie in den Abbildungen 3.34–3.36 den Zeitfunktionen (arabische Zahlen) das richtige Faltungsergebnis (Großbuchstaben) zu.

Abbildung 3.34: Zeitfunktionen und Faltungsergebnis zu Aufgabe 3.5(a).

Aufgabe 3.6: Fourier-Reihe Gegeben ist die reelle Funktion ( e−t für −π < t ≤ π x(t) = 0 sonst.

3.10 Aufgaben

Abbildung 3.35: Zeitfunktionen und Faltungsergebnis zu Aufgabe 3.5(b).

Abbildung 3.36: Zeitfunktionen und Faltungsergebnis zu Aufgabe 3.5(c).

139

3 Zeitkontinuierliche Signale

140

Die Funktion x(t) wird periodisch fortgesetzt und bildet die Funktion y(t) mit der Periodendauer T = 2π aus Abbildung 3.37. Es gilt y(t) = e−t für −π < t ≤ π und y(t + n2π) = y(t) mit n ∈ Z.

Abbildung 3.37: Periodische Funktion y(t).

Bestimmen Sie die komplexen Fourier-Koeffizienten ck der periodischen Funktion y(t). Vereinfachen Sie das Ergebnis soweit wie möglich. Aufgabe 3.7: Fourier-Transformation Die Funktion Y ( · ) ist die Fourier-Transformierte der Funktion y( · ). (a) Bestimmen Sie die Fourier-Transformierte der Funktion Y (diesmal als Funktion der Zeit t) und stellen Sie diese als Funktion von y (diesmal als Funktion der Frequenz f ) dar. (b) Bestimmen Sie die Fourier-Transformierte von y(t) = δ(t − α).

(c) Bestimmen Sie mit Hilfe der Ergebnisse aus den Teilaufgaben (a) und (b) die Fourier-Transformierte von y(t) = e−j2παt .

Aufgabe 3.8: Zusammenhang zwischen Fourier-Reihe und Fourier-Transformation Eine periodische Funktion yp (t) wird mittels yp (t) =

∞ X k=−∞

y(k − kT )

aus einer auf ein Grundintervall der Länge T zeitbegrenzten Funktion y(t) gebildet. Es soll der Zusammenhang zwischen den Koeffizienten ck der Fourier-Reihe der periodischen Funktion yp (t), der Fourier-Transformierten Yp (f ) und der FourierTransformierten Y (f ) untersucht werden. Besonders interessiert hier, wie (a) Yp (f ) aus ck , (b) ck aus Y (f ), (c) Y (f ) aus Yp (f ) und (d) Yp (f ) aus Y (f ) entsteht. (Annahme: Das Grundintervall liegt zwischen − T2 und + T2 .)

3.10 Aufgaben

141

Aufgabe 3.9: Eigenschaften der Fourier-Transformation Leiten Sie die Fourier-Transformierte von sin(2πf0 t) aus F{cos(2πf0 t)} =

 1 δ(f + f0 ) + δ(f − f0 ) 2

durch (a) Differentiation und (b) Verschiebung her. Aufgabe 3.10: Fourier-Transformation Ordnen Sie in Abb. 3.38 den Spektren (arabische Zahlen) die richtige Zeitfunktion (Großbuchstaben) zu. Aufgabe 3.11: Wahrscheinlichkeit Mit Hilfe zweier Abfüllmaschinen werden Flaschen mit Wasser befüllt. Hierbei soll pro Flasche 1 l eingefüllt werden. Aufgrund von Verzögerungen beim Öffnen und Schließen der Ventile kann mit diesen Maschinen die Abfüllmenge nur mit einer Standardabweichung von 0,06 l eingehalten werden. Der systematische Fehler sei vernachlässigbar. (a) Es ist bekannt, dass das abgefüllte Volumen bei einer der Maschinen einer Gleichverteilung folgt. Ist es wahrscheinlicher, dass eine Flasche mit etwa 0,9 l oder etwa 0,8 l befüllt wird? Bestimmen Sie hierzu die Intervallbreite der Gleichverteilung. (b) Bei der anderen Maschine folgt das Volumen der eingefüllten Wassermenge einer Normalverteilung. Ist es wahrscheinlicher, dass eine Flasche mit etwa 0,9 l oder etwa 0,8 l befüllt wird? (c) Welcher der beiden Maschinen würden Sie kaufen, wenn Sie möglichst genau 1 l einfüllen sollen? Aufgabe 3.12: Energiesignale (a) Zeigen Sie, dass sich jede beliebige reelle Funktion x(t) durch die Summe einer geraden Funktion xg (t) und einer ungeraden Funktion xu (t) darstellen lässt. (b) Gegeben ist ein gerades Energiesignal x(t). Zeigen Sie, dass x(t) die mittlere Zeit tx = 0 besitzt. (c) Gegeben ist ein ungerades Energiesignal x(t). Zeigen Sie, dass x(t) ebenfalls die mittlere Zeit tx = 0 besitzt.

3 Zeitkontinuierliche Signale

142

1

1

A

2

2

B

3

3

C

4

4

D

5

5

E

6

6

F

7

7

G

8

8

H

9

9

I

Abbildung 3.38: Spektren und Zeitfunktionen zu Aufgabe 3.10.

3.10 Aufgaben

143

(d) Was ist die Konsequenz aus den Aussagen (a)–(c) bezüglich der Zerlegung eines Signals x(t) in seinen geraden xg (t) und in seinen ungeraden xu (t) Anteil? (e) Gegeben sei ein zeitlich verschobenes Energiesignal x(t − T ). Zeigen Sie, dass dessen mittlere Zeit tx um den Wert T gegenüber der mittleren Zeit des nicht verschobenen Signals x(t) vergrößert ist. Aufgabe 3.13: Exponentialfunktion Gegeben ist folgendes Signal: x(t) = e−β|t| ,

β > 0.

(a) Zeichnen Sie das Signal für β = 1 im Zeit- und im Frequenzbereich. (b) Berechnen Sie die Energie Ex des Signals für ein beliebiges β. Handelt es sich bei x(t) um ein Energiesignal? (c) Bestimmen Sie die mittlere Zeit tx und die mittlere Frequenz fx von x(t). (d) Bestimmen Sie die Zeitdauer ∆t und die Bandbreite ∆f von x(t). (e) Berechnen Sie das Zeitdauer-Bandbreite-Produkt und vergleichen Sie dieses mit der unteren Schranke für die Zeit-Frequenz-Unschärfe eines Signals.

4

Zeitkontinuierliche Systeme

In Abschnitt 1.2 wurde bereits unter dem Begriff System eine Einrichtung eingeführt, die auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) reagiert. Mathematisch wird dieses Verhalten durch eine Operatorgleichung ya (t) = S{ye (t)}

(4.1)

und somit das System durch einen Operator S dargestellt, der das Verhalten zwischen Eingang und Ausgang des Systems beschreibt. In praktischen Fällen wird meist nicht der Operator gegeben sein, sondern das System implizit definiert sein. In diesem Kapitel werden zuerst allgemeine Eigenschaften von Systemen mit Hilfe von Operatoren formuliert, ohne eine konkretere Ausführungsvorschrift des Operators zu kennen. Anschließend wird die Beschreibung des Systemverhaltens durch Differentialgleichungen eingeführt. Zur deren Lösung ist die Laplace-Transformation hilfreich. Diese wird mitsamt ihren Eigenschaften dargestellt. Danach folgt die Beschreibung von Verfahren für den Entwurf zeitkontinuierlicher Filter im Frequenzbereich. Das Kapitel schließt mit der Behandlung der Hilbert-Transformation.

4.1

Eigenschaften

Bereits bei Kenntnis der Operatorgleichung (4.1) lassen sich viele Eigenschaften von Systemen beschreiben. Dabei klassifiziert man Systeme nach bestimmten Merkmalen. Jede Systemklasse hat bestimmte Grundeigenschaften, die für das Verhalten und für die rechnerische Behandlung des Systems wichtig sind. Definition 4.1 Zeitkontinuierliches System Ein zeitkontinuierliches System ist ein System gemäß der Operatorgleichung (4.1), dessen Eingangssignal ye (t) und Ausgangssignal ya (t) zeitkontinuierlich sind. Eine der wichtigsten Eigenschaften von Systemen ist die Linearität. Definition 4.2 Linearität Ein System S heißt linear, wenn für beliebige Eingangssignale ye1 (t) und ye2 (t) und beliebige Konstanten c1 und c2 die folgende Gleichung gilt (vgl. Abb. 4.1): S{c1 ye1 (t) + c2 ye2 (t)} = c1 S{ye1 (t)} + c2 S{ye2 (t)} .

(4.2)

4 Zeitkontinuierliche Systeme

146

Abbildung 4.1: Veranschaulichung des Superpositionsprinzips bei linearem System S.

Linearität ist der Zusammenschluss von Additivität und Homogenität. Additivität bedeutet, dass die Antwort auf eine Summe von Eingangssignalen gleich der Summe der Antworten auf die einzelnen Eingangssignale ist. Homogenität bedeutet, dass die Antwort auf das c-fache Eingangssignal gleich dem c-fachen der Antwort auf das Eingangssignal ist. Ein lineares System erfüllt damit das Superpositionsprinzip S

(N X

) ci yei (t)

=

i=1

N X

ci S{yei (t)} .

(4.3)

i=1

Geht man von der Summe zum Integral über, so ergibt sich, falls beide Integrale existieren, schließlich auch S

Z

 c(τ ) ye (τ ) dτ

Z =

c(τ ) S{ye (τ )} dτ .

(4.4)

Es ist also die Antwort auf das Integral eines Eingangssignals gleich dem Integral über die Antwort auf das Eingangssignal selbst.

Bemerkung 4.1 Für den Übergang zu Integralen ist die endliche Additivität nicht mehr ausreichend. Vielmehr benötigt man an dieser Stelle „Stetigkeit“ der Systeme, d. h. eine unendliche Additivität, da ein Grenzprozess durchgeführt wird. Dies ist jedoch bei realen Systemen stets erfüllt, da das Verhalten realer Systeme aufgrund nicht vorhandener Sprungfähigkeit immer stetig ist. Aus diesem Grund werden wir die Stetigkeit immer als erfüllt ansehen, wenn das System additiv ist. • Natürlich soll ye (t) = 0

(4.5)

stets als Eingangssignal zulässig sein. Hierauf reagiert ein lineares System, wie man (4.2) unmittelbar entnimmt, mit ya (t) = S{0} = 0 .

(4.6)

4.1 Eigenschaften

147

Beispiel 4.2: Linearität Ein System S1 , das ein Eingangssignal ye (t) mit einem konstanten Faktor a multipliziert, S1 :

ya (t) = S1 {ye (t)} = a · ye (t) ,

(4.7)

ist linear. Dies lässt sich mit der Linearitätsgleichung (4.2) schnell überprüfen. Hingegen ist das System S2 , das ein Eingangssignal ye (t) mit sich selbst multipliziert, S2 :

ya (t) = S2 {ye (t)} = (ye (t))2 ,

(4.8)

nicht linear, da z. B. die Homogenität nicht erfüllt ist: S2 {c · ye (t)} = c2 ye2 (t)

c∈{0,1} /

6=

c · ye2 (t) = c · S2 {ye (t)} .

(4.9) •

Definition 4.3 Zeitinvarianz Ein System S heißt zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal ye (t−t0 ) mit dem entsprechend zeitlich verschobenen Ausgangssignal ya (t−t0 ) antwortet: ya (t) = S{ye (t)}

=⇒

ya (t − t0 ) = S{ye (t − t0 )} .

(4.10)

Systeme, die (4.10) nicht genügen, heißen zeitvariant.

Beispiel 4.3: Zeitinvarianz Das System S1 S1 :

ya (t) = a · ye (t)

(4.11)

ist zeitinvariant; hingegen ist das System S2 S2 :

ya (t) = a(t) · ye (t)

(4.12)

mit a(t) = m t + c , für m 6= 0 zeitvariant.

m, c ∈ R ,

(4.13) •

4 Zeitkontinuierliche Systeme

148 Definition 4.4 Kausalität

Ein System S heißt kausal, wenn die Antwort nur von gegenwärtigen oder vergangenen, nicht jedoch von zukünftigen Werten des Eingangssignals abhängt (vgl. Abb. 4.2). Dies bedeutet, dass für ein System S aus ye1 (t) = ye2 (t) ,

t ≤ t1 ,

(4.14)

und ya1 (t) = S{ye1 (t)} ,

ya2 (t) = S{ye2 (t)} ,

(4.15)

bei willkürlichem t1 stets ya1 (t) = ya2 (t) ,

t ≤ t1 ,

(4.16)

folgt.

Abbildung 4.2: Nichtkausales und kausales System.

Die Definitionsgleichungen (4.14) und (4.16) haben angesichts von (4.6) zur Folge, dass ein lineares, kausales System S auf jedes zulässige Eingangssignal ye (t) mit der Eigenschaft ye (t) = 0 ,

t ≤ t1 ,

(4.17)

mit einem Ausgangssignal ya (t) antwortet, das die Eigenschaft ya (t) = 0 ,

t ≤ t1 ,

(4.18)

aufweist. Alle realisierbaren, d. h. physikalischen, Systeme sind kausal. Die Wirkung kann nicht vor der Ursache eintreten. Die Bedingung der Kausalität bedeutet oft eine erhebliche Einschränkung bei der mathematischen Formulierung von Systemeigenschaften.

4.1 Eigenschaften

149

Ohne Beweis sei hier angemerkt, dass ein System S, das aus Addition, Subtraktion, Multiplikation mit konstanten Faktoren, Integration bis zum aktuellen Zeitpunkt t und Differentiation besteht, linear, zeitinvariant und kausal ist. Definition 4.5 Dynamik Ein System S heißt dynamisch, wenn die Antwort ya (t) des Systems nicht nur vom augenblicklichen Wert des Eingangssignals ye (t), sondern auch von den vergangenen (bei nichtkausalen Systemen auch von zukünftigen) Werten abhängt. Die Antwort ya (t) eines nichtdynamischen Systems hängt damit nur vom augenblicklichen Wert des Eingangssignals ye (t) ab. Man sagt auch, ein dynamisches System hat ein Gedächtnis der Dauer T , wenn die Antwort ya (t0 ) durch die Werte der Erregung im Intervall [t0 − T, t0 ] vollständig bestimmt ist. Ohne Beweis sei hier angemerkt, dass ein nichtdynamisches System S keine Operatoren enthalten darf, die das Eingangssignal differenzieren oder integrieren. Beispiel 4.4: Dynamik Ein System, das als Antwort ya (t) das Gesamtgewicht m des auf einem Förderband befindlichen Schüttguts ausgibt, wobei als Eingangssignal ye (t) der Massenfluss m ˙ der neu hinzukommenden Masse dient, besitzt ein Gedächtnis der Zeitdauer T , die das Schüttgut benötigt, um das Band zu verlassen (vgl. Abb. 4.3). Im regelungstechnischen Sinne handelt es sich um ein Totzeitsystem mit der Totzeit T .

Abbildung 4.3: Förderband.

Die Zeitdauer T berechnet sich hier aus der Länge l des Förderbands und der Geschwindigkeit v, mit der es sich fortbewegt: T =

l . v

(4.19)

Die Gesamtmasse zum Zeitpunkt t0 hängt vom Massenfluss m ˙ ab, der im Zeitintervall [t0 − T, t0 ] auftrat. •

4 Zeitkontinuierliche Systeme

150 Definition 4.6 Stabilität

Ein System S heißt genau dann stabil, wenn jedes beschränkte zulässige Eingangssignal ye (t) ein ebenfalls beschränktes Ausgangssignal ya (t) zur Folge hat, d. h. wenn aus der Beschränktheit des Eingangssignals ∃ m > 0 : |ye (t)| < m < ∞ ,

t∈R

(4.20)

die Beschränkung des Ausgangssignals ∃ M > 0 : |ya (t)| < M < ∞ ,

t∈R

(4.21)

folgt. Man spricht hier auch von BIBO-Stabilität, was von der englischen Bezeichnung bounded-input, bounded-output abgeleitet ist. Beispiel 4.5: Stabilität Ein System S, das als Ausgangssignal das integrierte Eingangssignal Zt ye (τ ) dτ

ya (t) =

(4.22)

−∞

ausgibt, ist instabil. Das beschränkte Sprungsignal  1 für t ≥ 0 ye (t) = 0 für t < 0

(4.23)

führt zu einem unbeschränkten Ausgangssignal  t für t ≥ 0 ya (t) = 0 für t < 0

(4.24)

des Systems S.

4.1.1



Lineare zeitinvariante Systeme (LTI-Systeme)

Von besonderem Interesse sind lineare zeitinvariante Systeme, welche abkürzend als LTI-Systeme (LTI = b linear, time-invariant) bezeichnet werden. Diese Systeme besitzen eine einfache mathematische Darstellung, die ihre Analyse und Synthese erleichtert. Hierzu wird der Begriff der Impulsantwort eingeführt. Definition 4.7 Impulsantwort Die Antwort g(t) eines Systems S auf den Dirac-Impuls δ(t), g(t) = S{δ(t)} , nennt man Impulsantwort.

(4.25)

4.1 Eigenschaften

151

Aus der Definition 3.33 ist bekannt, dass sich ein Signal ye (t) mit Hilfe des Dirac-Impulses als Z∞ ye (t) = −∞

ye (τ ) δ(τ − t) dτ =

Z∞ −∞

ye (τ ) δ(t − τ ) dτ

(4.26)

darstellen lässt. Benutzt man das Signal ye (t) als Eingangssignal eines LTI-Systems S, so erhält man das Ausgangssignal ya (t) wegen ya (t) = S{ye (t)} = S

 ∞ Z 

−∞

Z∞ = −∞

ye (τ ) δ(t − τ ) dτ

ye (τ ) S{δ(t − τ )} dτ = | {z } = g(t−τ )

Z∞ −∞

 

(4.27)



ye (τ ) g(t − τ ) dτ = ye (t) ∗ g(t)

(4.28)

als Faltung des Eingangssignals ye (t) mit der Impulsantwort g(t) des Systems S. Dies bedeutet, dass LTI-Systeme vollständig durch ihre Impulsantwort charakterisiert sind.

Satz 4.6: Impulsantwort Die Impulsantwort eines LTI-Systems S, g(t) = S{δ(t)} ,

(4.29)

charakterisiert das System S vollständig. Die Antwort ya (t) auf ein Signal ye (t) berechnet sich aus der Faltung des Eingangssignals mit der Impulsantwort: ya (t) = ye (t) ∗ g(t) .

(4.30) •

Bemerkung 4.7 (Gewichtsfunktion) Aufgrund der Kommutativität der Faltung lässt sich (4.28) auch als Z∞ ya (t) = −∞

ye (t − τ ) g(τ ) dτ

(4.31)

schreiben. Hierdurch wird deutlich, dass g(t) den Einfluss des um τ verschobenen Eingangswertes beschreibt. Aus diesem Grund wird g(t) auch als Gewichtsfunktion bezeichnet. •

4 Zeitkontinuierliche Systeme

152 Satz 4.8: Kausalität

Aus (4.17) und (4.18) folgt, dass ein LTI-System S genau dann kausal ist, wenn die Impulsantwort für t < 0 verschwindet: S kausal

⇐⇒

g(t) = 0 für t < 0 .

(4.32) •

Beweis 4.9 (Kausalität) 1. Das LTI-System sei als kausal vorausgesetzt, und ye (t) sei ein beliebiges Eingangssignal mit ye (t) = 0 für t < 0 .

(4.33)

Für das Ausgangssignal ergibt sich gemäß (4.30) Z∞ g(t − τ ) ye (τ ) dτ ya (t) =

(4.34)

−∞ Z∞

(4.33)

t−τ = µ dτ = −dµ

g(t − τ ) ye (τ ) dτ

=

0

Zt = −∞

!

g(µ) ye (t − µ) dµ = 0

für t < 0 .

(4.35)

(4.36)

Dies kann aber für beliebige Eingangssignale, welche (4.33) gehorchen, nur dann erfüllt sein, wenn g(t) = 0 für alle t < 0 gilt. 2. Es gelte nun g(t) = 0 für t < 0, und ye (t) sei ein beliebiges Eingangssignal mit ye (t) = 0 für t < 0. Dann rechnet man Z∞ ya (t) = −∞

Zt =

g(t − τ ) ye (τ ) dτ

g(t − τ ) σ(t − τ ) ye (τ ) σ(τ ) dτ = 0

(4.37)

für t < 0 ,

(4.38)

0

womit das System als kausal nachgewiesen ist. Beispiel 4.10: Akausales Mittelwertfilter Ein Beispiel für ein akausales Filter ist die gleitende Mittelwertbildung, die durch folgende Impulsantwort realisiert wird (vgl. Abb. 4.4): g(t) =

1 rT (t) . T

(4.39)

4.1 Eigenschaften

153 1,5 1 0,5 0

–1

–0,5

0

0,5

1

Abbildung 4.4: Impulsantwort des akausalen Mittelwertfilters für T = 1 s.

Für das Ausgangssignal dieses Filters ergibt sich: ya (t) = g(t) ∗ ye (t) =

Z∞ −∞

1 1 rT (t − τ ) ye (τ ) dτ = T T

t+T Z /2

ye (τ ) dτ .

(4.40)

t−T /2

Sowohl aus der Impulsantwort als auch aus der berechneten Darstellung des Ausgangssignals wird deutlich, dass es sich hierbei um ein akausales Filter handelt. • Definition 4.8 Kausale Signale Durch Satz 4.8 motiviert, werden Funktionen bzw. Signale als kausal bezeichnet, falls sie für negative Zeiten den Wert null besitzen: f (t) kausal

⇐⇒

f (t) = 0 für t < 0 .

(4.41)

Diese Bezeichnung wird auch im folgenden Text gelegentlich verwendet. Mit der Definition 4.6 und motiviert durch Bsp. 4.10 soll die Stabilität eines LTI-Systems in Abhängigkeit von seiner Impulsantwort untersucht werden. Hierfür ergibt sich der folgende Satz. Satz 4.11: Stabilität von LTI-Systemen Ein LTI-System ist genau dann stabil, wenn seine Impulsantwort g(t) absolut integrierbar ist: Z∞ −∞

|g(t)| dt < ∞ .

(4.42) •

4 Zeitkontinuierliche Systeme

154 Beweis 4.12 (Stabilität von LTI-Systemen)

1. Die Impulsantwort g(t) sei absolut integrierbar und ye (t) ein beschränktes Eingangssignal, d. h. |ye (t)| < m ∀ t ∈ R. Stellt man das Ausgangssignal ya (t) mittels des Faltungsintegrals (4.30) dar, so folgt mit der Dreiecksungleichung: ∞ Z Z∞ |ya (t)| = ye (τ ) g(t − τ ) dτ ≤ |ye (τ )| |g(t − τ )| dτ . (4.43) −∞

−∞

Da nach Voraussetzung das Eingangssignal beschränkt ist, ergibt sich die Ungleichung |ya (t)| < m

Z∞ −∞

|g(t − τ )| dτ = m

Z∞ −∞

|g(µ)| dµ < M < ∞ ,

(4.44)

womit das Ausgangssignal als beschränkt nachgewiesen ist. 2. Um zu beweisen, dass die Bedingung (4.42) für die Stabilität auch notwendig ist, geben wir bei bekannter Impulsantwort g(t) das spezielle, beschränkte Eingangssignal ye (t) =

g ∗ (−t) |g(−t)|

(4.45)

vor [Fli91]. Es gilt |ye (t)| = 1 ∀ t ∈ R, d. h. das Eingangssignal ist beschränkt. Das Ausgangssignal ya (t) an der Stelle t = 0 ergibt sich nach (4.30) als Z∞ ya (0) =

Z∞ ye (τ ) g(−τ ) dτ =

−∞ Z∞

= −∞

−∞

|g(−τ )| dτ =

Z∞ −∞

|g(−τ )|2 dτ |g(−τ )|

|g(τ )| dτ .

(4.46)

(4.47)

Ist also die Impulsantwort nicht absolut integrierbar, so ist auch das System nicht stabil, da für ein beschränktes Eingangssignal ein unbeschränktes Ausgangssignal resultieren kann. Bei kausalen Systemen verschwindet die Impulsantwort für negative Zeiten, so dass die Bedingung (4.42) vereinfacht werden kann, indem die Integration erst bei null beginnt: Z∞ 0

|g(t)| dt < ∞ .

(4.48)

4.1 Eigenschaften

155

Abschließend soll untersucht werden, wie ein LTI-System S auf eine gegebene komplexe Schwingung der Frequenz f0 ye (t) = A · ej2πf0 t ,

A ∈ C,

(4.49)

reagiert. Die Antwort ergibt sich als Faltung zwischen der Impulsantwort g(t) und dem Eingangssignal ye (t): Z∞ ya (t) = −∞ Z∞

=

g(τ ) ye (t − τ ) dτ =

Z∞

g(τ ) A · ej2πf0 (t−τ ) dτ

(4.50)

−∞

g(τ ) e−j2πf0 τ dτ · A · ej2πf0 t = G(f0 ) · A · ej2πf0 t .

(4.51)

−∞

Somit haben wir das folgende Resultat erhalten: Satz 4.13: Frequenzgang Ein LTI-System S, das mit einer komplexen Schwingung der Frequenz f0 ye (t) = A · ej2πf0 t

(4.52)

angeregt wird, antwortet mit einem Ausgangssignal derselben Frequenz f0 . Der Proportionalitätsfaktor zwischen Ein- und Ausgangssignal ist die Fourier-Transformierte G(f ) der Impulsantwort g(t) bei der Frequenz f0 . Man nennt die FourierTransformierte G(f ) den Frequenzgang des Systems S. Der Betrag |G(f )| ist der Amplitudengang und das Argument arg G(f ) der Phasengang des Systems. •

4.1.2

Mehrgrößensysteme

Bislang wurde angenommen, dass die beschriebenen Systeme nur eine Eingangs- und eine Ausgangsgröße besitzen. Alle bisher beschriebenen Eigenschaften lassen sich auch auf sogenannte Mehrgrößensysteme erweitern. Entsprechend der Anzahl der Eingangs- bzw. Ausgangsgrößen spricht man von SISO(single-input single-output)- und MIMO-(multiple-input multiple-output)-Systemen bzw. deren Mischformen SIMO und MISO. Bei Mehrgrößensystemen wird aus dem Eingangssignal ye (t) der Eingangssignalvektor ye (t) und aus dem Ausgangssignal ya (t) der Ausgangssignalvektor ya (t). Das System wird weiterhin allgemein durch eine Operatorgleichung beschrieben: ya (t) = S{ye (t)} .

(4.53)

4 Zeitkontinuierliche Systeme

156

4.2

Systembeschreibung durch Differentialgleichungen

Bis jetzt wurden Eigenschaften von Systemen behandelt, ohne eine konkrete Darstellung einzuführen. Die Verwendung von Differentialgleichungen zur Abbildung eines oder mehrerer Eingangssignale ye (t) auf eines oder mehrere Ausgangssignale ya (t) bildet eine Möglichkeit der Darstellung. Diese ist z. B. in der Physik, aber auch in der Elektrotechnik weit verbreitet.

4.2.1

Allgemeine Darstellung

In der allgemeinen Form wird der Ausgangssignalvektor ya (t) als Funktion der Ableitungen des Ausgangssignalvektors, des Eingangssignalvektors ye (t), seiner Ableitungen und der Zeit t dargestellt:   ya (t) = f ya(1) (t), ya(2) (t), . . . , ye (t), ye(1) (t), ye(2) (t), . . . , t (4.54) mit y(i) (t) =

di y(t) . dti

(4.55)

Der in Beispiel 1.2 (S. 5) vorgestellte RC-Tiefpass etwa erfüllt die Differentialgleichung RC · u˙ a (t) + ua (t) = ue (t) .

(4.56)

Betrachtet man die Eingangsspannung ue (t) als Eingangssignal ye (t) und die Ausgangsspannung ua (t) als Ausgangssignal ya (t), so lässt sich der RC-Tiefpass gemäß (4.54) durch ya (t) = −RC · y˙ a (t) + ye (t)

(4.57)

beschreiben. Bei der Betrachtung von LTI-Systemen geht die allgemeine Differentialgleichung (4.54) in eine lineare Differentialgleichung mit zeitunabhängigen Konstanten, n X ν=0

aν ya(ν) (t) =

m X

bµ ye(µ) (t) ,

(4.58)

µ=0

über. Die Konstanten aν , ν = 1, . . . , n, und bµ , µ = 1, . . . , m, charakterisieren dabei das System. Man erkennt, dass es sich bei der Differentialgleichung (4.57) des RC-Tiefpasses um eine lineare Differentialgleichung mit zeitunabhängigen Konstanten handelt. Neben der Darstellung als lineare Differentialgleichung (4.58) existiert noch die Darstellung im Zustandsraum, die im folgenden Abschnitt beschrieben wird.

4.2 Systembeschreibung durch Differentialgleichungen

4.2.2

157

Zustandsraum

Für die bisherigen Betrachtungen war es ausreichend, Systeme mit Hilfe ihrer Eingangs- und Ausgangssignale zu beschreiben. Für viele Anwendungen reicht diese Betrachtungsweise jedoch nicht aus. Neben den Eingangs- und Ausgangssignalen werden „innere“ Signale, die Zustandsgrößen, eingeführt. Damit kann man die innere Struktur eines Systems nachvollziehen. Dabei werden diese inneren Zustandsgrößen durch einen Signalvektor z(t) dargestellt. Die Zustandsraumdarstellung besitzt mehrere Vorteile: • Es können Fälle „innerer“ Systeminstabilitäten erkannt werden, die bei alleiniger Betrachtung des Eingangs-Ausgangsverhaltens nicht festgestellt werden können. • Die Darstellungsweise ist der Theorie der Differentialgleichungen angepasst, so dass die entsprechenden Methoden anwendbar werden. • Die Behandlung theoretischer Aufgabenstellungen, z. B. in der Netzwerktheorie oder der Regelungstechnik, wird erleichtert. • Die Systemdarstellung im Zustandsraum eignet sich besonders zur Darstellung von Systemen im Rechner und bietet Vorteile bei der numerischen Behandlung. Definition 4.9 Zustandsraumdarstellung Ein System S lässt sich mit seinen Eingangs- und Ausgangssignalen ye (t) bzw. ya (t) sowie seinen inneren Zustandsgrößen z(t) durch ˙ z(t) = f (z(t), ye (t), t)

(4.59)

ya (t) = g(z(t), ye (t), t)

(4.60)

im Zustandsraum beschreiben. Dabei nennt man die erste Gleichung die Zustandsgleichung und die zweite Gleichung die Ausgangsgleichung. Für einen Anfangszeitpunkt t0 bestimmen die Eingangsgrößen ye (t) für t ≥ t0 und die Zustandsgrößen z(t0 ) durch die Zustandsgleichung den Zustandsvektor z(t) für t ≥ t0 , und somit durch die Ausgangsgleichung auch den Ausgangsvektor ya (t) für t ≥ t0 . Der Zustandsvektor z(t) repräsentiert sozusagen die gesamte Vergangenheit des Systems, die im Wesentlichen durch die Eingangsgrößen ye (t) bestimmt ist. Definition 4.10 Ordnung eines Systems Die kleinste Anzahl von Zustandsgrößen, d. h. die minimale Dimension des Zustandsvektors z(t), die zur eindeutigen Kennzeichnung des Systemzustands erforderlich sind, nennt man Ordnung des Systems.

4 Zeitkontinuierliche Systeme

158

Herleitung der Zustandsraumdarstellung eines LTI-Systems. Im Folgenden soll die Zustandsraumdarstellung für LTI-Systeme mit einer Eingangs- und einer Ausgangsgröße hergeleitet werden. Dabei geht man von der Darstellung (4.58) aus: n X

aν ya(ν) (t)

=

ν=0

m X

bµ ye(µ) (t) .

(4.61)

µ=0

In technisch realisierbaren Systemen gilt wegen der bedingten Sprungfähigkeit der Ausgangsgröße die Ungleichung n ≥ m. Damit kann in solchen Systemen die Ausgangsgröße nicht von der zeitlichen Änderung der Eingangsgröße abhängen. Die Umformung der linearen Differentialgleichung in die Zustandsraumdarstellung erfolgt nach [BS93] in fünf Schritten. (n)

1. Die Differentialgleichung (4.58) wird nach ya (t) aufgelöst, wobei bµ = 0 für m < µ ≤ n gesetzt wird:  1  ya(n) = b0 ye −a0 ya +b1 y˙ e −a1 y˙ a + · · · +bn−1 ye(n−1) −an−1 ya(n−1) +bn ye(n) . an 2. Es werden die Zustandsgrößen nach folgendem Schema eingeführt:  1  b0 ye −a0 ya +b1 y˙ e −a1 y˙ a + · · · +bn−1 ye(n−1) −an−1 ya(n−1) +bn ye(n) . ya(n) = an | {z } = z˙0 (t)

{z

|

(2)

= z1 (t)

} {z

|

}

(n)

= zn−1 (t)

Man erhält also: z˙0 (t) = b0 ye (t) − a0 ya (t) (i+1)

zi

(i)

(4.62)

(t) = zi−1 (t) + bi ye(i) (t) − ai ya(i) (t) ,

i = 1, . . . , n − 1.

(4.63)

3. Durch i-fache Integration der i-ten Definitionsgleichungen erhält man nur noch erste Ableitungen: z˙i (t) = zi−1 (t) + bi ye (t) − ai ya (t) ,

i = 1, . . . , n − 1 .

(4.64)

4. Die Differentialgleichung aus dem zweiten Schritt kann man unter Verwendung der (n − 1)-ten Zustandsgröße verkürzt als  1  (n) ya(n) (t) = (4.65) zn−1 (t) + bn ye(n) (t) an schreiben. Hieraus folgt durch n-fache Integration die Ausgangsgleichung ya (t) =

1 (zn−1 (t) + bn ye (t)) an

der Zustandsraumdarstellung.

(4.66)

4.2 Systembeschreibung durch Differentialgleichungen

159

5. Einsetzen der Ausgangsgleichung in die einzelnen integrierten Definitionsgleichungen der Zustandsgrößen liefert:   = − aan0 zn−1 + b0 − bn aan0 ye   = z0 + b1 ye − a1 ya = z0 − aan1 zn−1 + b1 − bn aan1 ye   = z1 + b2 ye − a2 ya = z1 − aan2 zn−1 + b2 − bn aan2 ye .. .. .. . . .   an−1 ye . = zn−2 + bn−1 ye − an−1 ya = zn−2 − an zn−1 + bn−1 − bn an−1 an

z˙0 = b0 ye − a0 ya z˙1 z˙2 .. . z˙n−1

Daraus ergeben sich in Vektorschreibweise die Zustandsgleichung 

0 z˙0 1   z˙1     0  z˙2   =    ..   0  .  .  .. z˙n−1 0 



0 0 1 0 .. . 0

··· ··· ··· ··· .. . ···

− aan0 − aan1 − aan2 − aan3 .. . − an−1 an



b0 − bn aa0 z0  b − b an1 1 n an  z1   a2    b − b  2 n an  z2   +   b3 − bn aan3  ..     .   ..  . zn−1 bn−1 −bn an−1 an 

    ·    







     · ye    

(4.67)

und die Ausgangsgleichung    1 ya (t) = 0, 0, . . . , 0, an

   ·  

z0 z1 z2 .. .

   b  n ye (t) +  an 

(4.68)

zn−1 der Zustandsraumdarstellung. Hieraus folgt die Vektordarstellung im Zustandsraum ˙ z(t) = A z(t) + b ye (t) ,

(4.69)

ya (t) = cT z(t) + d ye (t) ,

(4.70)

wobei A, b, c und d entsprechend den obigen Gleichungen zu definieren sind. Die eben beschriebene Vorgehensweise erzeugt die Beobachter-Normalform im Zustandsraum. Analog hierzu ist noch die Regelungs-Normalform gebräuchlich, vergleiche hierzu [FK13]. Bei den Mehrgrößensystemen sind mehrere Eingangs- oder Ausgangssignale vorhanden, die zu einem Vektor ye (t) bzw. ya (t) zusammengefasst werden. Eine Zustandsraumdarstellung kann auch für solche Systeme angegeben werden.

4 Zeitkontinuierliche Systeme

160

Definition 4.11 Zustandsraumdarstellung für LTI-Systeme LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch folgende Vektorgleichungen darstellen: ˙ z(t) = A z(t) + B ye (t) ya (t) = C z(t) + D ye (t)

(4.71)

Hierbei heißt A die Systemmatrix, B die Steuermatrix, C die Beobachtungsmatrix und D die Durchschaltmatrix. Die Struktur eines solchen Systems ist in Abb. 4.5 dargestellt (Bedeutung der Elemente des Blockschaltbildes vgl. Anhang D).

Abbildung 4.5: Struktur der Zustandsraumdarstellung.

Dabei wird die Systemdynamik hauptsächlich von der Matrix A beeinflusst. Sind die zur Beschreibung eines Systems erforderlichen Matrizen A, B, C und D zeitabhängig, so ist das zugehörige System zeitvariant, ansonsten ist es zeitinvariant. Es sei angemerkt, dass es für ein und dasselbe System verschiedene Zustandsraumdarstellungen mit unterschiedlichen Zustandsgrößen gibt. Die Darstellung eines Systems im Zustandsraum wird nun anhand eines ausführlichen Beispiels gezeigt. Beispiel 4.14: Masse-Feder-Dämpfer-System Abbildung 4.6 zeigt den Aufbau eines Masse-Feder-Dämpfer-Systems. Das System wird durch seine physikalischen Eigenschaften beschrieben. Die Bewegungsgleichung X mx ¨= F = Fa + Fc + Fd (4.72) beschreibt die Beschleunigungskraft als Summe aller angreifenden Kräfte. Hierzu zählt die von außen kommende Anregungskraft Fa , die Rückholkraft Fc = −c x

(4.73)

4.2 Systembeschreibung durch Differentialgleichungen

161

der Feder, die proportional zur Auslenkung x ist, und die Dämpfungskraft Fd = −d v

(4.74)

des Dämpfungsglieds, die proportional zur Geschwindigkeit der Masse m ist. Mit dem Verhältnis zwischen der Auslenkung x und der Geschwindigkeit v v = x˙ ,

v˙ = x ¨,

(4.75)

erhält man die das System beschreibende Differentialgleichung: m¨ x = Fa − c x − d x˙ .

(4.76)

Dabei wird die Auslenkung x so gewählt, dass in der Ruhelage x = 0 ist. Ansonsten würde es sich nicht um ein lineares System handeln (vgl. (4.6)).

Abbildung 4.6: Aufbau des Masse-Feder-Dämpfer-Systems.

Bei der Darstellung im Zustandsraum verwendet man als Zustandsgrößen die Auslenkung x und die Geschwindigkeit v. Hieraus ergeben sich sofort die einzelnen Differentialgleichungen der Zustandsgleichung: x˙ = v , v˙ = −

c d 1 x− v+ Fa . m m m

(4.77) (4.78)

Damit kann das System im Zustandsraum in Vektorschreibweise beschrieben werden:         0 1 x 0 x˙ · + 1 · Fa , (4.79) = d c v v˙ −m −m m    x + 0 · Fa . (4.80) x= 1 0 · v • Bemerkung 4.15 Bei diesem Beispiel werden andere Zustandsgrößen verwendet als bei Anwendung der fünf Rechenschritte. Geht man entsprechend den formulierten Schritten vor, so ergibt ein einfaches Einsetzen in die Bewegungsgleichung: mx ¨ = Fa − c x − d x˙ ,

(4.81)

4 Zeitkontinuierliche Systeme

162 was man zu c d 1 x+ x˙ + x ¨= Fa m m m

(4.82)

umformen kann. Dies ist eine Gleichung der Gestalt von (4.58) mit den Größen a0 =

c , m

a1 =

d , m

a2 = 1

und

b0 =

1 . m

(4.83)

Setzt man noch b1 = 0 und b2 = 0, so kann man direkt obige Herleitungen verwenden, woraus sich die Zustandsgleichung !  !   c 1 0 −m z0 z˙0 m + Fa (4.84) = d z1 z˙1 0 1 −m und die Ausgangsgleichung x(t) = z1 (t)

(4.85)

ergeben. Diese Darstellung weicht von der oben aufgeführten Darstellung ab, womit die Existenz mehrerer gültiger Zustandsraumdarstellungen an einem Beispiel demonstriert wurde. •

4.3

Laplace-Transformation

Ein LTI-System S wird durch seine Impulsantwort g(t) vollständig charakterisiert. Da die Impulsantwort g(t) ein Signal ist, auf das die Hilfsmittel der Signalverarbeitung angewendet werden können, könnte man z. B. durch Anwendung der Fourier-Transformation auf die Impulsantwort g(t) weitere Informationen über das System S selbst gewinnen, etwa durch Bestimmung des Frequenzgangs (vgl. Satz 4.13 auf S. 155). Leider existiert das Fourier-Integral (3.192) wegen eventueller Konvergenzschwierigkeiten nur für eine beschränkte Klasse von Funktionen. So wurde in Beispiel 3.35 gezeigt, dass für die Funktion y(t) = t das Fourier-Integral nicht konvergiert. Um die Konvergenz für eine größere Klasse von Funktionen zu sichern, erweitert man den Integranden um den Faktor e−δt , δ ∈ R, der im Fall δ > 0 für t → ∞ schnell gegen null strebt und so die Konvergenz zumindest für hinreichend großes δ ∈ R sichert. Somit geht der Frequenzparameter j2πf in den Parameter δ + j2πf über. Zwar führt diese Erweiterung des Integranden gleichzeitig zu einer Verschlechterung der Konvergenz des Integrals für t → −∞, bei Betrachtung kausaler Systeme ist dieses Problem jedoch irrelevant, da die untersuchten Signale für negative Zeiten verschwinden.

4.3.1

Definition

Die Erweiterung des Integranden mit e−δt erzeugt aus der Fourier-Transformation die Laplace-Transformation.

4.3 Laplace-Transformation

163

Definition 4.12 Zweiseitige Laplace-Transformation Die zweiseitige Laplace-Transformation einer Funktion y(t) ist durch Y (s) = LII {y(t)} =

Z∞

y(t) e−st dt

(4.86)

−∞

definiert, wobei s = δ+j2πf = δ+jω ∈ C den komplexwertigen Frequenzparameter bezeichnet. Das Signal wird somit im gesamten Zeitbereich R betrachtet und dort in die „komplexen Frequenzen“ s = δ + jω zerlegt. Die zweiseitige Laplace-Transformation beschreibt in ihrem Konvergenzbereich eine holomorphe Funktion. Der Index II dient dazu, diese Transformation von der später einzuführenden einseitigen Laplace-Transformation zu unterscheiden.

Bemerkung 4.16 Die Laplace-Transformierte eines Signals y(t) entspricht gerade der Fourier-Transformierten des Signals y(t) e−δt : Y (s) = LII {y(t)} = F{y(t) · e−δt } .

(4.87)

Nach den bei der Einführung der Fourier-Transformation gemachten Betrachtungen ist somit die Konvergenz von Z∞ −∞

|y(t) e−δt | dt < ∞

eine hinreichende Bedingung für die Existenz der Laplace-Transformierten.

(4.88)



Eine Funktion y(t), t ∈ R, kann in ihren kausalen Teil yk (t) mit  yk (t) =

y(t) 0

für t ≥ 0 für t < 0

(4.89)

und ihren antikausalen Teil yak (t) mit  yak (t) =

0 y(t)

für t ≥ 0 für t < 0

(4.90)

aufgeteilt werden. Unterzieht man die Funktion y(t) nun der Laplace-Transformation,

4 Zeitkontinuierliche Systeme

164

dann folgt bei Existenz der Integrale aufgrund der Linearität: LII {y(t)} =

Z∞

−st

yk (t) e

Z∞ dt +

(4.91)

−∞

−∞

Z∞

−st

y(t) e

=

yak (t) e−st dt

Z0 dt +

y(t) e−st dt .

(4.92)

−∞

0

Bemerkung 4.17 Nach [Fö11] umfasst der Konvergenzbereich der zweiseitigen Laplace-Transformation stets einen Streifen parallel zur j-Achse. Hierbei gehören die Pole links des Streifens der absoluten Konvergenz zum kausalen Teil, Pole rechts davon zum antikausalen Teil des Signals. • Beweis 4.18 Um die Aussage von Bemerkung 4.17 einzusehen, betrachten wir zuerst den kausalen Teil des Signals. Im Vorgriff auf die inverse einseitige Laplace-Transformation in Abschnitt 4.3.5.1 lässt sich der kausale Teil darstellen als 1 yk (t) = 2πj

α+j∞ Z

Y (s) est ds ,

t ≥ 0.

(4.93)

α−j∞

Aufgrund des Residuensatzes folgt deshalb yk (t) =

M X k=1

Res{Y (s) est ; sk } ,

t ≥ 0,

(4.94)

wobei die Pole links des Integrationsweges zu nehmen sind. Da der Integrationsweg in dem Streifen der absoluten Konvergenz von Y (s) liegt, sind dies gerade die Pole links des Streifens der absoluten Konvergenz. Für die Aussage über den antikausalen Teil transformiert man das zweite Integral in (4.92) zu Z0

yak (t) e−st dt =

−∞

Z∞

yak (−t) est dt =

0

Z∞

yak (−t) e−(−s)t dt .

(4.95)

0

Dies definiert analog eine einseitige Laplace-Transformation mit der Variablen −s. Somit ergibt sich yak (−t) =

M X k=1

Res{Y (−s) est ; sk } ,

t ≥ 0,

(4.96)

4.3 Laplace-Transformation

165

und somit das antikausale Signal im Zeitbereich. Die Pole rechts des Streifens der Konvergenz bestimmen den antikausalen Teil. Häufig treten kausale Funktionen y(t) auf – d. h. Funktionen, die für negative Zeiten verschwinden – etwa im Falle der Impulsantwort eines kausalen LTI-Systems. Für derartige Funktionen geht die zweiseitige Laplace-Transformation über in Z∞

y(t) e−st dt .

(4.97)

0−

Als untere Integrationsgrenze wird hier „0−“ gewählt, um Sprünge bei null und den Dirac-Impuls berücksichtigen zu können. Da diese Formel jedoch auch für beliebige Funktionen angesetzt werden kann, bei denen sie dann nur den Zeitabschnitt [0, ∞) betrachtet, wird dafür die einseitige Laplace-Transformation eingeführt. Definition 4.13 Einseitige Laplace-Transformation Die einseitige Laplace-Transformation einer Funktion y(t) ist durch Y (s) = LI {y(t)} = L{y(t)} =

Z∞

y(t) e−st dt

(4.98)

0−

gegeben. Im Gegensatz zur zweiseitigen Laplace-Transformation wird hier nur der Zeitabschnitt [0, ∞) inklusive des linksseitigen Grenzwertes der Funktion an der Stelle 0 betrachtet. Dies ist von großem Interesse, da häufig kausale Funktionen zu untersuchen sind. Die einseitige Laplace-Transformation beschreibt in ihrem Konvergenzbereich eine holomorphe Funktion.

Bemerkung 4.19 1. Falls im folgenden Text die Variante der Laplace-Transformation nicht mehr durch einen Index gekennzeichnet wird, ist immer die einseitige LaplaceTransformation gemeint. 2. Für kausale Signale stimmen beide Laplace-Transformierten überein: y(t) kausal

=⇒

LII {y(t)} = LI {y(t)} .

(4.99)

3. Für die Laplace-Transformation werden die Schreibweisen y(t) ◦−• Y (s) , verwendet.

Y (s) = LI/II {y(t)} ,

y(t) = L−1 I/II {Y (s)}

(4.100)

4 Zeitkontinuierliche Systeme

166

4. Wie bereits die zweiseitige Laplace-Transformation, so kann man auch die einseitige Laplace-Transformation mittels der Fourier-Transformation darstellen: LI {y(t)} = F{y(t) e−δt σ(t)} .

(4.101)

5. Es sei noch einmal betont, dass im Folgenden kausale Signale betrachtet werden. Diese Einschränkung hat ihre Berechtigung darin, dass der Großteil der in realen Anwendungen auftretenden Signale kausal ist. •

4.3.2

Konvergenz der Laplace-Transformation

Bei Verwendung von uneigentlichen Integralen ist die Frage der Konvergenz wichtig. Für die Laplace-Transformation soll dies anhand zweier einführender Beispiele illustriert werden. Beispiel 4.20: Laplace-Transformation des Einheitssprungs Mit der Definition des Einheitssprungs  0 für t < 0 σ(t) = 1 für t ≥ 0

(4.102)

und (4.98) folgt Z∞

Z∞

 t=+∞ 1 e−st dt = − e−st s t=0 −∞ 0     1 1 = lim − e−st − − e−s0 . t→+∞ s s

LI/II {σ(t)} =

−st

σ(t) e

dt =

(4.103) (4.104)

Zur Bestimmung des Grenzwertes wird der Term e−st = e−(δ+jω)t = e−δt e−jωt = e−δt (cos(ωt) − j sin(ωt))

(4.105)

betrachtet. Er entspricht einer komplexen harmonischen Schwingung, die in Abhängigkeit des Parameters δ eine aufklingende, abklingende oder eine konstante Amplitude e−δt aufweist. Wegen  für δ > 0 0 für δ = 0 lim e−δt = 1 (4.106) t→+∞  +∞ für δ < 0 klingt die Schwingung für δ > 0 ab, man erhält eine Dauerschwingung für δ = 0 und eine aufklingende Schwingung für δ < 0. Nur für δ > 0 existiert der Grenzwert   1 −st = 0. (4.107) lim − e t→+∞ s

4.3 Laplace-Transformation

167

Es gilt also: LI/II {σ(t)} =

Z∞

σ(t) e−st dt =

1 , s

Re{s} > 0 .

(4.108)

−∞

Das Konvergenzgebiet ist somit nach (4.106) die rechte komplexe Halbebene (vgl. Abb. 4.7). •

Abbildung 4.7: Konvergenzgebiet des Einheitssprungs in der s-Ebene.

Beispiel 4.21: Einseitige Laplace-Transformierte der Exponentialfunktion Die einseitige Laplace-Transformierte der Funktion y(t) = eβt ,

β ∈ C,

(4.109)

lautet entsprechend den Überlegungen im vorherigen Beispiel L{y(t)} =

Z∞ e

βt −st

e

0

Z∞ dt =

e−(s−β)t dt =

0

sofern Re{s − β} > 0, d. h. Re{s} > Re{β} ist.

1 , s−β

(4.110) •

Bemerkung 4.22 Allgemein lässt sich nach [Fö11] zeigen, dass für jede Zeitfunktion ein α ∈ R existiert, so dass das Konvergenzgebiet der einseitigen Laplace-Transformation dieser Zeitfunktion gerade durch {s ∈ C : Re{s} > α}

(4.111)

gegeben ist. Somit ist das Konvergenzgebiet der einseitigen Laplace-Transforma2 tion immer eine Halbebene der s-Ebene, die in Grenzfällen, wie z. B. bei e−t oder 2 • et , in die gesamte Ebene bzw. in die leere Ebene übergeht. Die Laplace-Transformierte ist konvergent, falls y(t) in eine konvergierende TaylorReihe entwickelbar ist, d. h. eine analytische Funktion darstellt.

4 Zeitkontinuierliche Systeme

168

4.3.3

Inverse Laplace-Transformation

Aus der Darstellung der einseitigen Laplace-Transformation mit Hilfe der FourierTransformation (4.101) folgt die inverse Laplace-Transformation durch Auflösung von (4.101) nach y(t): Y (s) = Ft {y(t) e−δt σ(t)} ⇒ y(t) e−δt σ(t) = Ff−1 {Y (s)} . (4.112) s=δ+j2πf

Hierbei muss δ so gewählt werden, dass Y (δ + j2πf ) definiert ist, d. h. im Konvergenzbereich der Laplace-Transformierten liegt. Hieraus folgt durch inverse FourierTransformation für t ≥ 0: Z∞ Y (δ + j2πf ) · eδt ej2πf t df , t ≥ 0. (4.113) y(t) = −∞

Mittels der Substitution s = δ + j2πf ,

(4.114)

ds = j2π df folgt daraus für t ≥ 0 1 y(t) = 2πj

δ+j∞ Z

Y (s) est ds .

(4.115)

δ−j∞

Definition 4.14 Inverse Laplace-Transformation Die inverse Laplace-Transformation der Funktion Y (s) eines Transformationspaares y(t) ◦−• Y (s) ist durch 1 y(t) = 2πj

c+j∞ Z

Y (s) est ds

(4.116)

c−j∞

gegeben. Hierbei muss c so gewählt werden, dass Re{s} = c im Konvergenzgebiet von Y (s) liegt.

4.3.4

Eigenschaften

Die Eigenschaften der Laplace-Transformation entsprechen im Wesentlichen denen der Fourier-Transformation. In diesem Rahmen werden einige Eigenschaften in Anlehnung an [CW04] aufgeführt und exemplarisch berechnet. Weitere Eigenschaften findet man in Anhang B aufgelistet. Eine genauere Darstellung der Eigenschaften der Laplace-Transformation findet sich beispielsweise in [Fö11]. Hier werden alle Eigenschaften für die einseitige Laplace-Transformation gezeigt, die im Folgenden kurz als Laplace-Transformation bezeichnet wird.

4.3 Laplace-Transformation

4.3.4.1

169

Linearität

Die Laplace-Transformierte einer gewichteten Summe von Einzelfunktionen ist die gewichtete Summe der Laplace-Transformierten der Funktionen: ( ) X X L ai yi (t) = ai L{yi (t)} . (4.117) i

i

Entsprechende Beziehungen bestehen für das Umkehrintegral (4.116). Diese Eigenschaften zeigen, dass die Laplace-Transformation eine lineare Integraltransformation ist.

4.3.4.2

Verschiebung im Zeitbereich

Wählt man anstelle des Zeitmaßstabes t den um t0 verschobenen Zeitmaßstab τ = t − t0 , was einer Zeitverschiebung des Signals entspricht, so erhält man über L{y(t − t0 )} =

Z∞

−st

y(t − t0 ) e

0− Z∞

−s(τ +t0 )

y(τ ) e

=

dt

−st0

Z∞

dτ = e

t − t0 = τ dt = dτ

(4.118)

y(τ ) e−sτ dτ

(4.119)

−t0

−t0

die Laplace-Transformierte der zeitverschobenen Funktion. Da zur Anwendung der Laplace-Transformation kausale Funktionen y(t) vorausgesetzt wurden, muss jetzt zwischen zwei Fällen unterschieden werden. 1. Für t0 > 0 ist die untere Integrationsgrenze −t0 negativ. Da die betrachteten Funktionen als kausal angenommen wurden, folgt sofort die Laplace-Transformierte bei positiver Zeitverschiebung: L{y(t − t0 )} = e

−st0

Z∞

y(τ ) e−sτ dτ = e−st0 L{y(t)} ,

t0 > 0 .

(4.120)

0−

2. Bei negativer Zeitverschiebung t0 < 0 ist die untere Integrationsschranke −t0 positiv. Durch Erweiterung des Integrals um den Integrationsbereich [0−, −t0 ] folgt über L{y(t − t0 )} = e

−st0

Z∞

y(τ ) e−sτ dτ

(4.121)

−t0

 = e−st0 

Z∞ 0−

 Z−t0 y(τ ) e−sτ dτ − y(τ ) e−sτ dτ  0−

(4.122)

4 Zeitkontinuierliche Systeme

170

die Laplace-Transformierte für negative Zeitverschiebungen:   Z−t0 L{y(t − t0 )} = e−st0 L{y(t)} − y(τ ) e−sτ dτ  , t0 < 0 .

(4.123)

0−

4.3.4.3

Verschiebung im Frequenzbereich

Ersetzt man in der Laplace-Transformierten Y (s) die Größe s durch s + b mit b ∈ C, so erhält man aus (4.98) den Dämpfungssatz der Laplace-Transformation: Z∞ Y (s + b) =

y(t) e−(s+b)t dt = L{y(t) e−bt } .

(4.124)

0−

Eine Dämpfung der Zeitfunktion y(t) mit der Exponentialfunktion e−bt erzeugt somit eine Verschiebung um b im Frequenzbereich.

4.3.4.4

Differentiation im Zeitbereich

Setzt man voraus, dass die Funktion y(t) für t > 0 differenzierbar ist, und dass die Laplace-Transformierte von y(t) ˙ existiert, dann ergibt sich durch partielle Integration die Differentiationsregel im Zeitbereich: L



dy(t) dt

Z∞

 =

 ∞ dy(t) −st e dt = y(t) e−st 0− + s dt

0−

Z∞

y(t) e−st dt

(4.125)

0−

= s Y (s) − y(0−) .

(4.126)

Durch wiederholtes Anwenden dieser Regel erhält man die Beziehung für höhere Ableitungen:   n d y(t) = sn Y (s) − sn−1 y(0−) − sn−2 y(0−) ˙ − · · · − y (n−1) (0−) . (4.127) L dtn Diese Eigenschaft ist zur Laplace-Transformation einer Differentialgleichung wichtig.

4.3.4.5

Skalierung

Streckt oder staucht man die Zeitachse durch die Transformation t → at, a > 0, so ergibt sich über L{y(at)} =

Z∞

−st

y(at) e 0−

 dt =

at = τ a dt = dτ



1 = a

Z∞

s

y(τ ) e− a τ dτ

(4.128)

0−

der Ähnlichkeitssatz der Laplace-Transformation für die skalierte Zeitachse: 1 s L{y(at)} = Y . a a

(4.129)

4.3 Laplace-Transformation

4.3.4.6

171

Faltung

Die Multiplikation zweier Funktionen im Zeitbereich entspricht der Faltung der beiden Laplace-Transformierten, wobei die Faltung im Frequenzbereich geeignet – d. h. unter Verwendung eines Vorfaktors – zu definieren ist. Man rechnet dazu:    c+j∞ d+j∞ Z Z 1  1  y1 (t) · y2 (t) =  Y1 (s1 ) es1 t ds1   Y2 (s2 ) es2 t ds2  (4.130) 2πj 2πj c−j∞

=

c+j∞ Z

1 2πj

d−j∞



 1 Y1 (s1 )  2πj

c−j∞



d+j∞ Z

 Y2 (s2 ) e(s1 +s2 )t ds2  ds1

(4.131)

d−j∞

s = s1 + s2 ds = ds2 =



c+j∞ Z

 1 Y1 (s1 )  2πj

1 2πj

c−j∞ c+j∞ Z

1 = 2πj

c−j∞

b+j∞ Z



 Y2 (s − s1 ) est ds ds1

b−j∞

1 2πj

b+j∞ Z

Y1 (s1 ) Y2 (s − s1 ) est ds ds1

b−j∞

=L

(4.133)

b−j∞

  b+j∞ c+j∞ Z Z 1 1  = Y1 (s1 ) Y2 (s − s1 ) ds1  est ds 2πj 2πj −1

(4.132)

(4.134)

c−j∞

{Y1 (s) ∗ Y2 (s)} .

(4.135)

Entsprechend lässt sich die Faltung zweier Funktionen im Zeitbereich als Multiplikation der beiden Laplace-Transformierten darstellen: L{y1 (t) ∗ y2 (t)} = Y1 (s) · Y2 (s) .

4.3.4.7

(4.136)

Grenzwertsätze

Die Grenzwertsätze der Laplace-Transformation ermöglichen eine vereinfachte Berechnung von Grenzwerten einer Funktion y(t) für t → 0 und t → ∞ aus den Grenzwerten von s Y (s). Da es sich bei den Laplace-Transformierten oft um verhältnismäßig einfache algebraische Funktionen handelt, sind die Grenzwerte im Frequenzbereich gelegentlich einfacher zu berechnen.

4 Zeitkontinuierliche Systeme

172 1. Anfangswertsatz Für n = 1 ergibt die Differentiationsregel (4.127) L



dy(t) dt

Z∞

 =

dy(t) −st e dt = s Y (s) − y(0−) . dt

(4.137)

0−

Betrachtet wird nun eine Funktion y(t), die bei t = 0 einen Sprung der Höhe h besitzt: y(t) = y˜(t) + h · σ(t) .

(4.138)

Dabei bezeichnet y˜(t) die stetige Restfunktion ohne Sprung bei t = 0. Die Ableitung dieser Funktion ergibt dy(t) d˜ y (t) = + h · δ(t) . dt dt

(4.139)

Man beachte dabei, dass man durch Integration des Dirac-Impulses δ(t) den Einheitssprung σ(t) erhält und somit der Dirac-Impuls die Ableitung des Einheitssprungs im Sinne der Distributionentheorie ist: dσ(t) = δ(t) . dt

(4.140)

Lässt man s → ∞ gehen, wobei Re{s} → ∞ wesentlich ist, so folgt wegen e−st → 0 für t > 0 Z∞ lim

s→∞ 0−

Z∞ Z∞ d˜ y (t) −st dy(t) −st e dt = lim e dt + h · lim δ(t) e−st dt (4.141) s→∞ s→∞ dt dt 0− 0− | | {z } {z } →0

=1

= h,

(4.142)

falls die Laplace-Transformierte von y(t) ˙ existiert. Es folgt der Anfangswertsatz der Laplace-Transformation: lim s Y (s) = y(0−) + h = y(0+) ,

(4.143)

s→∞

wobei h die Sprunghöhe der Unstetigkeit an der Stelle t = 0 ist. Besitzt y(t) keine Unstetigkeit bei t = 0, so gilt h = 0 und y(0−) = y(0+). 2. Endwertsatz Lässt man dagegen s → 0 gehen, so erhält man wegen e−st → 1 und Z∞ lim

s→0 0−

dy(t) −st e dt = dt

Z∞

dy(t) dt = y(∞) − y(0−) dt

(4.144)

0−

= lim [s Y (s) − y(0−)] = lim s Y (s) − y(0−) (4.145) s→0

s→0

4.3 Laplace-Transformation

173

den Endwertsatz der Laplace-Transformation: lim s Y (s) = y(∞) .

s→0

(4.146)

Hierbei wird vorausgesetzt, dass der Grenzwert y(∞) existiert und endlich ist [Doe76].

4.3.5

Rücktransformation

Ist für ein Problem die Lösung im Bildbereich ermittelt worden, so besteht in vielen Fällen die Aufgabe noch darin, die Lösung in den Zeitbereich zurückzutransformieren. Die theoretische Rücktransformation besteht in der Auswertung des komplexen Umkehrintegrals (4.116). Dies ist aber im Allgemeinen nicht einfach. Eine weitere Möglichkeit besteht in der Anwendung von Korrespondenztabellen. Damit kann die gesuchte Umkehrfunktion oft direkt einer Tabelle entnommen werden. Dabei muss die Bildfunktion durch einige Umformungen in Ausdrücke umgewandelt werden, die man in solchen Korrespondenztabellen wiederfindet. Im Folgenden wird die Rücktransformation über die Residuen und durch Partialbruchzerlegung vorgestellt.

4.3.5.1

Residuensatz

Die Bildfunktion Y (s) sei eine Laplace-Transformierte, die in der endlichen s-Ebene (sEbene ohne den Punkt ∞) als einzige Singularitäten Pole s1 , . . . , sM besitzt. Da Y (s) in der Halbebene rechts eines gewissen α ∈ R holomorph ist, liegen diese Pole sämtlich in der Halbebene links von α; vgl. (4.111). Weiterhin sei Y (s) eine gebrochenrationale Funktion der Form Y (s) = Z(s)/N (s) mit grad{Z(s)} < grad{N (s)}. Am Rande der Halbebene der absoluten Konvergenz des zu Y (s) gehörenden Laplace-Integrals werde nun eine Gerade g parallel zur komplexen Achse gelegt (vgl. Abb. 4.8), welche den konstanten Realteil Re{g} = α besitzt. Von g ausgehend werden Kurven Hn , n = 1, 2, . . ., gezogen, die in α + jRn beginnen und in α − jRn enden. Dabei soll Rn eine Folge reeller Zahlen mit Rn → ∞ für n → ∞ bezeichnen. Die Endpunkte der Kurven Hn definieren ein Geradenstück gn der Geraden g, welches mit wachsendem n in die gesamte Gerade g übergeht. Bezeichnen wir nun die aus gn und Hn bestehende geschlossene Kurve mit Cn = gn + Hn ,

(4.147)

dann sollen die Hn so gelegt werden, dass das Innere jeder Kurve Cn+1 außer dem Inneren der vorhergehenden Kurve Cn noch mindestens einen weiteren Pol umschließt. Falls Y (s) nur endlich viele Pole hat, ist diese Forderung hinfällig, sobald alle Pole von einem Cn umschlossen werden. Jedes weitere Cn schließt dann ebenfalls sämtliche Pole ein.

4 Zeitkontinuierliche Systeme

174

Abbildung 4.8: Zur Berechnung des komplexen Umkehrintegrals mit Re{s} > α.

Nach dem Residuensatz (2.185) gilt nun für n ≥ M : 1 2πj

Z

Y (s) est ds =

M X k=1

Cn

Res{Y (s) est ; sk } .

(4.148)

Da est in der endlichen Ebene überall holomorph ist, fallen die Pole von Y (s) est mit den Polen von Y (s) zusammen. Für (4.148) kann man auch 1 2πj

Z

Y (s) est ds +

gn

1 2πj

Z

Y (s) est ds =

M X k=1

Hn

Res{Y (s) est ; sk }

schreiben. Lässt man nun n → ∞ streben, dann geht dabei [Fö11] Z 1 Y (s) est ds → 0 . 2πj

(4.149)

(4.150)

Hn

Aus (4.149) folgt wegen gn → g die Formel für die Rücktransformation mit Hilfe des Residuensatzes: 1 y(t) = 2πj

α+j∞ Z

Y (s) est ds =

α−j∞

M X k=1

Res{Y (s) est ; sk } ,

t ≥ 0.

(4.151)

Die Rücktransformation mittels des ResiduensatzesR kann man sich dadurch veranschaulichen, dass im Grenzübergang n → ∞ mit gn über eine mit dem Punkt ∞ abgeschlossene Jordan-Kurve integriert wird (vgl. Satz 2.46 auf S. 49).

4.3 Laplace-Transformation

175

Die Vorgehensweise bei der Bestimmung der Originalfunktion mittels des Residuensatzes wird anhand eines Beispiels demonstriert. Beispiel 4.23: Residuensatz Betrachtet man die Laplace-Transformierte Y (s) =

3s2 − 2s + 1 , s3 − s2 + s − 1

(4.152)

so berechnen sich die Nullstellen des Nennerpolynoms zu s∞1 = −j ,

s∞2 = j ,

s∞3 = 1 .

(4.153)

Mittels des Residuensatzes folgt nun 1 y(t) = 2πj

α+j∞ Z

Y (s) est ds =

3 X k=1

α−j∞

Res{Y (s) est ; s∞k } ,

t ≥ 0.

(4.154)

Hierbei ist α eine reelle Zahl, die so groß sei, dass der Konvergenzbereich von Y (s) die Gerade von α − j∞ bis α + j∞ umfasst. Mit der Berechnungsformel (2.184) lassen sich die Residuen einfacher Polstellen durch Res{Y (s) est ; s∞k } = lim (s − s∞k ) Y (s) est s→s∞k

(4.155)

berechnen. Somit ergibt sich für den Pol s∞1 = −j das Residuum 3s2 − 2s + 1 st e s→−j (s − j)(s − 1)

Res{Y (s) est ; s∞1 } = lim (s + j) Y (s) est = lim s→−j

=

3j2 + 2j + 1 −jt e = 1 · e−jt . (−2j)(−j − 1)

(4.156) (4.157)

Analog berechnet man die Residuen Res{Y (s) est ; s∞2 } = ejt

(4.158)

Res{Y (s) est ; s∞3 } = et .

(4.159)

und

Mit diesen folgt die Originalfunktion y(t) = e−jt + ejt + et = 2 cos(t) + et ,

t ≥ 0.

(4.160) •

4 Zeitkontinuierliche Systeme

176

4.3.5.2

Partialbruchzerlegung

Für die Partialbruchzerlegung geht man bei der Laplace-Transformierten Y (s) von einer teilerfremden rationalen Funktion Y (s) =

Z(s) N (s)

(4.161)

mit grad{Z(s)} < grad{N (s)} aus. Das Nennerpolynom N (s) sei durch N (s) = q0 · (s − s∞1 )α1 · · · (s − s∞M )αM

(4.162)

dargestellt. Für alle s ∈ C, für die N (s) 6= 0 gilt, kann die Bildfunktion Y (s) in Partialbrüche zerlegt werden: a12 a1α1 a11 + + ··· + s − s∞1 (s − s∞1 )2 (s − s∞1 )α1 a22 a2α2 a21 + + ··· + + s − s∞2 (s − s∞2 )2 (s − s∞2 )α2 .. . aM 1 aM 2 aM αM + + . + ··· + 2 s − s∞M (s − s∞M ) (s − s∞M )αM

Y (s) =

(4.163)

Hierbei sind die aij ,

i = 1, 2, . . . , M ,

j = 1, 2, . . . , αi ,

(4.164)

eindeutig bestimmte Konstanten. Die Koeffizienten aiαi bei der höchsten Nenner-Ordnung können durch aiαi = lim Y (s) · (s − s∞i )αi , s→s∞i

i = 1, 2, . . . , M ,

(4.165)

berechnet werden. Die anderen Koeffizienten ermittelt man z. B. durch Ausmultiplizieren und Koeffizientenvergleich, was auf ein lineares Gleichungssystem führt. Nach der Partialbruchzerlegung der Laplace-Transformierten Y (s) kann man diese mittels aij (s − s∞i )j

•−◦

aij tj−1 es∞i t (j − 1)!

(4.166)

zurücktransformieren. Hierzu ein kleines Beispiel. Beispiel 4.24: Partialbruchzerlegung Die Laplace-Transformierte Y (s) =

3s2 − 2s + 1 − s2 + s − 1

s3

(4.167)

4.3 Laplace-Transformation

177

besitzt das Nennerpolynom N (s) = s3 − s2 + s − 1 = (s + j) (s − j) (s − 1) .

(4.168)

Hieraus folgt mit dem Ansatz der Partialbruchzerlegung Y (s) =

a11 a21 a31 + + s+j s−j s−1

und mit der Berechnung der einzelnen Koeffizienten: 3s2 − 2s + 1 =1 a11 = (s − j)(s − 1) s=−j 3s2 − 2s + 1 =1 a21 = (s + j)(s − 1) s=j 3s2 − 2s + 1 a31 = =1 (s + j)(s − j)

(4.169)

(4.170)

(4.171)

(4.172)

s=1

die Partialbruchdarstellung der Laplace-Transformierten Y (s): Y (s) =

1 1 1 + + . s+j s−j s−1

(4.173)

Hieraus lässt sich nun die Rücktransformierte leicht ermitteln: y(t) = L−1 {Y (s)} n 1 o n 1 o n 1 o = L−1 + L−1 + L−1 s+j s−j s−1 −jt jt t =e +e +e , t≥0 t

= 2 cos(t) + e ,

t ≥ 0.

(4.174) (4.175) (4.176) (4.177) •

Bemerkung 4.25 Die Ergänzung t ≥ 0 kann vermieden werden, indem aus den Korrespondenztabellen ein Term σ(t) mitgeführt wird. In diesem Fall lautet die vorletzte Zeile des vorherigen Beispiels:  (4.178) y(t) = e−jt σ(t) + ejt σ(t) + et σ(t) = 2 cos(t) + et · σ(t) . Das Mitführen des Ausdrucks σ(t) bei den weiteren Berechnungen ist zwar umständlich, jedoch oft hilfreich. •

4 Zeitkontinuierliche Systeme

178

4.3.6

Anwendung bei der Systembeschreibung

In diesem Abschnitt wird das Ausgangssignal einer linearen Differentialgleichung betrachtet. Weiterhin wird die Zustandsraumdarstellung, wie sie in Abschnitt 4.2.2 eingeführt wurde, mit den durch die Laplace-Transformation zur Verfügung gestellten Methoden bearbeitet. Um den Rahmen dieses Buches nicht zu sprengen, sei für eine größere Menge an Anwendungen der Laplace-Transformation auf andere Quellen, wie z. B. [Fö11], verwiesen.

4.3.6.1

Lineare Differentialgleichung

Es soll die Laplace-Transformierte des Ausgangssignals ya (t) eines LTI-Systems ohne Totzeit ermittelt werden, dessen Systemverhalten durch eine lineare Differentialgleichung der Form (4.58) beschrieben wird: n X

aν ya(ν) (t) =

ν=0

m X

bµ ye(µ) (t) .

(4.179)

µ=0

Durch Laplace-Transformation erhält man: ( n ) (m ) X X (ν) (µ) L aν ya (t) = L bµ ye (t) , ν=0 n X

m X

ν=0

µ=0

(4.180)

µ=0

aν L{ya(ν) (t)} =

bµ L{ye(µ) (t)} .

(4.181)

Mit dem Differentiationssatz (4.127) der Laplace-Transformation und unter Beachtung der Tatsache, dass bei einem kausalen LTI-System die Funktionswerte und die Werte aller Ableitungen von ye (t) und ya (t) zum Zeitpunkt 0− verschwinden, folgt für die Ableitungen: L{ye(µ) (t)} = sµ Ye (s)

bzw.

L{ya(ν) (t)} = sν Ya (s) .

(4.182)

Hieraus folgt für die Laplace-Transformierte des Ausgangssignals ya (t) eines Systems, welches durch eine lineare Differentialgleichung beschrieben wird, über den Zwischenschritt n m X X aν sν Ya (s) = bµ sµ Ye (s) (4.183) ν=0

µ=0

der Zusammenhang: m P

Ya (s) =

µ=0 n P

bµ sµ · Ye (s) .

(4.184)

aν sν

ν=0

Der in dieser Gleichung auftretende Bruch heißt Übertragungsfunktion des Systems – ein Begriff, der in Abschnitt 4.4 erneut eingeführt und näher betrachtet wird.

4.3 Laplace-Transformation

4.3.6.2

179

Laplace-Transformation der Zustandsdarstellung

Aus der Zustandsraumdarstellung (4.71) ˙ z(t) = A z(t) + B ye (t) , ya (t) = C z(t) + D ye (t)

(4.185) (4.186)

folgt mittels der Laplace-Transformation s Z(s) − z(t0 −) = A Z(s) + B Ye (s) ,

(4.187)

Ya (s) = C Z(s) + D Ye (s) .

(4.188)

Geht man davon aus, dass sich das System vor der Anregung in Ruhe befand, so folgt z(t0 −) = 0 und somit mittels einfacher Rechnung Z(s) = (s I − A)−1 B Ye (s)

(4.189)

  Ya (s) = C (s I − A)−1 B + D Ye (s) .

(4.190)

und

Somit erhält man mit der folgenden Definition G(s) = C (s I − A)−1 B + D

(4.191)

eine Gleichung für das Ausgangssignal: Ya (s) = G(s) Ye (s) .

(4.192)

Die Matrix G(s) wird dann in Anlehnung an die in (4.184) hergeleitete Übertragungsfunktion als Übertragungsmatrix bezeichnet. Das Element Gij (s) in der i-ten Zeile und der j-ten Spalte entspricht der Übertragungsfunktion eines Systems, welches mit (ye (t))j angeregt wird und darauf mit (ya (t))i reagiert. Bemerkung 4.26 Da es sich bei der Gleichung ˙ z(t) = A z(t) + B ye (t)

(4.193)

um eine Differentialgleichung handelt, kann – sofern diese lösbar ist – eine Lösung berechnet werden. Hierbei bedient man sich der üblichen Vorgehensweise, indem man zuerst die Lösung der homogenen Gleichung ˙ z(t) = A z(t)

(4.194)

berechnet und anschließend den Ansatz der Variation der Konstanten wählt. Hier soll lediglich die Lösung der Gleichung (4.193) angegeben werden; für eine Herleitung sei beispielsweise auf [Fli91] verwiesen.

4 Zeitkontinuierliche Systeme

180

Die Lösung der Vektorgleichung (4.193) lässt sich mit Hilfe der Definition Φ(t) = eAt

(4.195)

als z(t) = e

A(t−t0 )

z(t0 −) +

Zt

eA(t−τ ) B ye (τ ) dτ

(4.196)

t0 −

= Φ(t − t0 ) z(t0 −) +

Zt

Φ(t − τ ) B ye (τ ) dτ

t0 −

(4.197)

berechnen. Als Ausgangssignal erhält man damit durch Einsetzen ya (t) = C Φ(t − t0 ) z(t0 −) +

4.3.7

Zt t0 −

C Φ(t − τ ) B ye (τ ) dτ + D ye (t) .

(4.198) •

Vergleich zwischen Laplace- und Fourier-Transformation

Zur Diskussion, welche Transformation nun besser zur Lösung bestimmter Aufgaben geeignet ist, sei angemerkt, dass dies stark von der Anwendung abhängt. • Die Laplace-Transformation ist für die analytische Behandlung kausaler Signale vorteilhaft. Sie kann ohne Beachtung einer Vielzahl von Regeln angewendet werden. Der Vorrat an konvergierenden Funktionen ist größer. Aufgrund der einfachen Lösung linearer Differentialgleichungen gemäß (4.184) wird die Laplace-Transformation zur Beschreibung des Übertragungsverhaltens von linearen Systemen angewendet. • Die Fourier-Transformation vermittelt dem Ingenieur besser die Anschauung, dass ein Signal aus harmonischen Schwingungen zusammengesetzt ist. Viele leistungsfähige numerische Verfahren wie die DFT und die FFT gehen auf die Fourier-Transformation zurück. Für weitere Aspekte und Eigenschaften der Fourier- und Laplace-Transformation wird auf [Fli91, Pap77, Fö11, Doe76, Zei13, Ach85] verwiesen.

4.4

Systemfunktion

Bei LTI-Systemen entsteht das Ausgangssignal nach (4.30) als Faltung des Eingangssignals mit der Impulsantwort g(t) des Systems, ya (t) = g(t) ∗ ye (t) ,

(4.199)

4.4 Systemfunktion

181

das System wird durch die Impulsantwort vollständig beschrieben. Führt man die Laplace-Transformation von (4.30) durch, so ergibt sich unter Beachtung des Faltungssatzes (4.136) der Laplace-Transformation die Bildfunktion des Ausgangssignals als Produkt der Bildfunktionen von Impulsantwort und Eingangssignal: Ya (s) = G(s) · Ye (s) .

(4.200)

Das System ist durch die Laplace-Transformierte der Impulsantwort eindeutig beschrieben. Diese Laplace-Transformierte nennt man Systemfunktion oder auch Übertragungsfunktion G(s) des Systems. Sobald im Folgenden der Begriff der Impulsantwort oder der Übertragungsfunktion benutzt wird, ist dies auf ein LTI-System bezogen. Definition 4.15 Systemfunktion, Übertragungsfunktion Die Laplace-Transformierte G(s) der Impulsantwort g(t) = S{δ(t)}

(4.201)

eines LTI-Systems S heißt Systemfunktion oder auch Übertragungsfunktion: G(s) = L{g(t)} =

Z∞

g(t) e−st dt .

(4.202)

0−

Bemerkung 4.27 Da die Systemfunktion eines Systems durch Anwendung der Laplace-Transformation berechnet wird, ist eine Rechnung mit Systemfunktionen nur unter Angabe von Konvergenzgebieten vollständig. Dies wird im Folgenden nicht immer explizit durchgeführt, sondern es wird davon ausgegangen, dass man sich bei Berechnungen im Bildbereich innerhalb dieses Konvergenzgebietes befindet. Oft ergeben sich aus den zugrunde liegenden Voraussetzungen schon Forderungen an das Konvergenzgebiet. Beispielsweise wird gezeigt werden, dass ein stabiles, kausales, zeitkontinuierliches LTI-System nur Pole links der imaginären Achse besitzt. • In Abschnitt 4.3.6.1 wurde die Bildfunktion Ya (s) des Ausgangssignals ya (t) eines linearen Differentialgleichungssystems in (4.184) als Produkt einer gebrochenrationalen Funktion und der Bildfunktion Ye (s) des Eingangssignals ye (t) dargestellt: m P

Ya (s) =

µ=0 n P ν=0

bµ sµ · Ye (s) . aν sν

(4.203)

4 Zeitkontinuierliche Systeme

182

Diese gebrochenrationale Funktion ist die Übertragungsfunktion m P

G(s) =

µ=0 n P

bµ sµ = aν



Z(s) N (s)

(4.204)

ν=0

des durch das lineare Differentialgleichungssystem beschriebenen LTI-Systems. In der Darstellung (4.204) heißen Z(s) das Zählerpolynom und N (s) das Nennerpolynom von G(s). Bemerkung 4.28 Aufgrund der bedingten Sprungfähigkeit technischer Systeme erfüllen reale Übertragungsfunktionen die Bedingung m ≤ n, d. h. Zählergrad ≤ Nennergrad. •

4.4.1

Pol- und Nullstellen

Aus der Funktionentheorie ist bekannt, dass es für gebrochenrationale Funktionen verschiedene Darstellungsformen gibt und jede dieser Formen unter bestimmten Voraussetzungen Vorteile besitzt. Wenn mit s0µ die Nullstellen des Zählerpolynoms Z(s), d. h. die Nullstellen der Übertragungsfunktion G(s), und mit s∞ν die Nullstellen des Nennerpolynoms N (s), d. h. die Polstellen der Übertragungsfunktion G(s), bezeichnet werden und mittels Normierung an = 1 gilt, kann die Übertragungsfunktion in Linearfaktoren von Zähler- und Nennerpolynom dargestellt werden: m Q

G(s) = G0 ·

(s − s0µ )

µ=1 n Q

(s − s∞ν )

,

m ≤ n.

(4.205)

ν=1

Mit Hilfe der Partialbruchzerlegung erhält man für m < n bei einfachen Polen die Übertragungsfunktion in Summendarstellung, G(s) =

n X

Aν , s − s∞ν ν=1

(4.206)

die man direkt zurücktransformieren kann: n X g(t) = Aν es∞ν t · σ(t) .

(4.207)

ν=1

Setzt man die Impulsantwort in die Bedingung für die Stabilität des LTI-Systems (4.42) ein, so folgt mit der Dreiecksungleichung folgende Abschätzung: Z∞ Z∞ X Z∞ n n X s∞ν t Aν e · σ(t) dt ≤ |Aν | es∞ν t dt . (4.208) |g(t)| dt = −∞

−∞

ν=1

ν=1

0

4.4 Systemfunktion

183

Die einzelnen Integrale konvergieren, wenn die Realteile der Polstellen s∞ν negativ sind. Ist andererseits das System stabil, so folgt |G(s)|Re{s}=0 ≤

Z∞

|g(t)| dt < ∞ .

(4.209)

0−

Damit liegt die imaginäre Achse im Konvergenzgebiet, die Pole können also nur links davon liegen. Dies ist die Stabilitätsbedingung für die Pole von LTI-Systemen. Satz 4.29: Stabilität Ein kausales LTI-System S ist genau dann stabil, wenn alle Polstellen der Übertragungsfunktion G(s) in der offenen linken Halbebene liegen, d. h. die Bedingung Re{s∞ν } < 0

(4.210)

für alle ν ∈ {1, . . . , n} erfüllt ist.



Diese Bedingung ist nicht mit der Konvergenzbedingung der Laplace-Transformation Re{s} > α zu verwechseln. Bemerkung 4.30 1. Im Fall mehrfacher Pole erhält man eine Darstellung der Form G(s) =

αν K X X ν=1 i=1

Aν,i , (s − s∞ν )i

(4.211)

wobei die Vielfachheit des Poles s∞ν durch αν gegeben ist. Transformiert man diese Ausdrücke in den Zeitbereich zurück, so erhält man die Zeitfunktion g(t) =

αν K X X Aν,i i−1 s∞ν t t e · σ(t) . (i − 1)! ν=1 i=1

(4.212)

Da bei Gültigkeit der Bedingung Gl. (4.210) der exponentielle Term es∞ν t für t → ∞ „schneller“ gegen null strebt als der polynomielle Term ti−1 gegen ∞, konvergiert auch das Integral über |g(t)|. Somit ist die Bedingung (4.210) immer hinreichend für die Stabilität eines kausalen LTI-Systems. 2. Aus der Forderung (4.210) folgt insbesondere auch, dass ein stabiles, kausales LTI-System keinen Pol (d. h. keine Unendlichkeitsstelle) bei s = ∞ besitzen darf, woraus für die Übertragungsfunktion eines solchen Systems stets Zählergrad ≤ Nennergrad folgt. • Definition 4.16 Reellwertige Systeme Ein System, welches auf ein reelles Eingangssignal mit einem reellen Ausgangssignal antwortet, wird als reellwertig bezeichnet.

4 Zeitkontinuierliche Systeme

184 Satz 4.31: Reellwertige Systeme

Ein kausales LTI-System ist genau dann reellwertig, wenn für seine Übertragungsfunktion G∗ (s) = G(s∗ )

(4.213)

gilt. Somit sind für Pole und Nullstellen der Übertragungsfunktion stets auch die komplex konjugierten Größen Pole und Nullstellen. • Beweis 4.32 (Reellwertige Systeme) Bei einem LTI-System erhält man das Ausgangssignal durch die Faltung ya (t) = g(t) ∗ ye (t) .

(4.214)

Das Ausgangssignal eines reellen, kausalen LTI-Systems ist somit genau dann reellwertig, wenn die Impulsantwort g(t) reellwertig ist. Die konjugiert komplexe Übertragungsfunktion ist damit ∗

Z∞

G (s) =

−s∗ t



g (t) e

Z∞ dt =

0−



g(t) e−s t dt = G(s∗ ) .

(4.215)

0−

Aufgrund dessen ist mit einem Pol s∞ν oder einer Nullstelle s0µ stets auch deren komplex konjugierte Größe ein Pol s∗∞ν bzw. eine Nullstelle s∗0µ . Für ein reellwertiges System ergeben sich aus (4.213) die Folgerungen |G(s)| = |G(s∗ )| ,

(4.216) ∗

arg{G(s)} = − arg{G(s )} .

(4.217)

Dies entspricht den in Satz 3.37 gewonnenen Erkenntnissen. Wie in [Fli91] aufgeführt, ist somit die allgemeine Darstellung solch einer Übertragungsfunktion mit m0 Nullstellen in s = 0, m1 einfachen Nullstellen ungleich null, m2 komplexen Nullstellenpaaren, n0 Polstellen in s = 0, n1 einfachen Polstellen ungleich null und n2 komplexen Polstellenpaaren durch sm0 G(s) = G0 sn0

m Q1

(s − s0µ )

µ=1 n1 Q ν=1

(s − s∞ν )

m Q2

|s

|

+ |s0µ |2 ) (s2 + s Q0µ 0µ

µ=1 n2 Q

∞ν | 2 (s2 + s |s Q∞ν + |s∞ν | )

(4.218)

ν=1

gegeben, wobei der Zählergrad m = m0 +m1 +2m2 und der Nennergrad n = n0 +n1 + 2n2 sind. Die Parameter Q0µ und Q∞ν werden als Nullstellengüten bzw. Polstellengüten bezeichnet.

4.4 Systemfunktion

185

Der Faktor G0 ergibt sich mittels (4.204) als G0 =

bm . an

(4.219)

Da die Koeffizienten bµ und aν des Zähler- bzw. des Nennerpolynoms für reellwertige Systeme reell sind, ist somit der (Verstärkungs-)Faktor G0 für reellwertige LTI-Systeme eine reelle Größe. Bemerkung 4.33 Bei einem stabilen, reellen, kausalen LTI-System liegen die Pole der Übertragungsfunktion links der imaginären Achse. Nach Satz 4.13 erhält man den zugehörigen Amplitudengang |G(f )| aus der Übertragungsfunktion G(s) durch Einsetzen von s = j2πf : |G(f )|2 = G(s) G∗ (s)|s=j2πf = G(s) G(s∗ )|s=j2πf .

(4.220)

Der Amplitudengang kann daher auch über die Beziehung |G(f )|2 = G(s) G(−s)|s=j2πf

(4.221)

berechnet werden, da bei s = j2πf der Realteil von s gleich null ist. Bei einem stabilen, reellen, kausalen LTI-System G(s) wird mit dem Übergang auf G(−s) ein instabiles, reelles, antikausales LTI-System erzeugt. Die Pole von G(−s) entstehen durch Negieren des Real- und des Imaginärteils der Pole von G(s). Dies entspricht einer Spiegelung der Pole am Ursprung der komplexen Ebene (vgl. Abb. 4.9).

Abbildung 4.9: Spiegelung der Pole einer Übertragungsfunktion G(s) am Ursprung.

Will man einem gewünschten Amplitudengang |G(f )|2 ein stabiles, reelles, kausales LTI-System G(s) zuordnen, so wählt man aus den Polen von G(s) G(−s) gerade die links der imaginären Achse liegenden Pole aus. •

4 Zeitkontinuierliche Systeme

186 Bemerkung 4.34

Auch konjugiert komplexe Pole, wie sie in reellwertigen LTI-Systemen auftreten, führen bei der Stabilitätsbetrachtung auf dieselben Resultate wie in (4.210). Hat man nämlich ein solches komplex konjugiertes Polpaar s∞ν1 und s∞ν2 = s∗∞ν1 , ν1 6= ν2 , vorliegen, so liest man aus (4.213) ab, dass die zugehörigen Koeffizienten in der Partialbruchentwicklung ebenfalls zueinander konjugiert sind, d. h. Aν2 = A∗ν1 . Somit erhält man nach der Rücktransformation und Betragsbildung in der Abschätzung (4.208) Ausdrücke der Gestalt |Aν1 |

Z∞ 0

s t e ∞ν1 dt + |A∗ν | 1

Z∞ 0

s∗ t e ∞ν1 dt = |Aν1 |

Z∞

s t s∗ t  e ∞ν1 + e ∞ν1 dt . (4.222)

0

Auch dieses Integral konvergiert genau dann, wenn Re{s∞ν1 } = Re{s∞ν2 } < 0 gilt. •

4.4.2

Verknüpfung von Systemfunktionen

Systeme setzen sich häufig aus vielen Teilsystemen zusammen, die ihrerseits wiederum aus weiteren Teilsystemen bestehen. Um den Aufbau eines komplexen Systems darzustellen, werden in der Systemtechnik sogenannte Blockschaltbilder verwendet, die ein System darstellen, indem die Teilsysteme und deren Verknüpfungen innerhalb des Systems grafisch dargestellt werden. Eine wichtige Klasse von Blockschaltbildern sind die sogenannten Signalflusspläne, die ein mathematisches Modell des betrachteten Systems darstellen. Sie bestehen aus Blöcken („Übertragungsgliedern“), die Funktionalbeziehungen zwischen Signalen beschreiben, und Wirkungslinien, durch welche die Übertragungsglieder rückwirkungsfrei miteinander oder mit der Umwelt verknüpft werden. In einem Signalflussplan bestehen die einfachsten Systeme aus einem einzigen Block, der elementare Operationen an dem Eingangssignal vornimmt. Als Beispiel hierzu dient beispielsweise ein Integrationsblock, der das Ausgangssignal integriert, oder ein Differentiationsblock, der das eingehende Signal differenziert. Eine Darstellung der wichtigsten Elemente eines Signalflussplans findet man in Anhang D. Die Strukturdarstellung eines Systems, wie sie in Abschnitt 4.4.6 eingeführt wird, ist ein Spezialfall der Darstellung mittels Blockschaltbildern. Nun stellt sich die Frage, auf welche Weise Elementarblöcke und komplexe Systeme verknüpft werden. In diesem Abschnitt wird untersucht, wie sich die resultierende Übertragungsfunktion bei Verknüpfung einzelner Systeme zu einem Gesamtsystem ermitteln lässt. In Abb. 4.10 werden die beiden Fälle Reihenschaltung und Parallelschaltung von LTISystemen dargestellt, mit deren Hilfe eine Aufteilung in Teilsysteme oder eine Fusion zu einem Gesamtsystem beschrieben werden kann.

4.4 Systemfunktion

187

Abbildung 4.10: Verknüpfung von Systemen: Reihenschaltung (oben); Parallelschaltung (unten).

Bei der Reihenschaltung von LTI-Systemen bildet das Ausgangssignal ya1 (t) = g1 (t) ∗ ye (t) = S1 {ye (t)}

(4.223)

des Systems S1 mit der Impulsantwort g1 (t) das Eingangssignal des Systems S2 mit der Impulsantwort g2 (t): ya (t) = g2 (t) ∗ ya1 (t) = g2 (t) ∗ (g1 (t) ∗ ye (t)) = S2 {S1 {ye (t)}} .

(4.224)

Führt man diese Operation im Bildbereich durch, so ergibt sich die gesamte Übertragungsfunktion der beiden in Reihe geschalteten Systeme als Produkt ihrer einzelnen Übertragungsfunktionen: Ya1 (s) = G1 (s) · Ye (s) Ya (s) = G2 (s) · Ya1 (s) = G2 (s) · (G1 (s) · Ye (s)) = (G1 (s) · G2 (s)) · Ye (s) .

(4.225) (4.226) (4.227)

Satz 4.35: Reihenschaltung von LTI-Systemen Werden ein System S1 mit der Übertragungsfunktion G1 (s) und ein System S2 mit der Übertragungsfunktion G2 (s) in Reihe geschaltet, so ist die Gesamtübertragungsfunktion das Produkt der beiden einzelnen Übertragungsfunktionen: G(s) = G1 (s) · G2 (s) .

(4.228)

Dies entspricht im Zeitbereich einer Faltung der Impulsantworten: g(t) = g1 (t) ∗ g2 (t) .

(4.229) •

Bei der Parallelschaltung erfolgt eine Addition der beiden Ausgangssignale: ya (t) = ya1 (t) + ya2 (t) = (g1 (t) ∗ ye (t)) + (g2 (t) ∗ ye (t)) .

(4.230)

4 Zeitkontinuierliche Systeme

188

Nach Transformation in den Bildbereich ergibt sich die Gesamtübertragungsfunktion als Summe der beiden einzelnen Übertragungsfunktionen Ya (s) = (G1 (s) · Ye (s)) + (G2 (s) · Ye (s)) = (G1 (s) + G2 (s)) · Ye (s) .

(4.231)

Satz 4.36: Parallelschaltung von LTI-Systemen Werden bei gleichem Eingangssignal das Ausgangssignal ya1 (t) eines Systems S1 mit der Übertragungsfunktion G1 (s) und das Ausgangssignal ya2 (t) eines Systems S2 mit der Übertragungsfunktion G2 (s) addiert, so verhält sich das resultierende System wie ein System mit der Übertragungsfunktion G(s), die als Summe der beiden einzelnen Übertragungsfunktionen beschrieben wird: G(s) = G1 (s) + G2 (s) .

(4.232)

Dies entspricht im Zeitbereich einer Addition der Impulsantworten: g(t) = g1 (t) + g2 (t) .

(4.233) •

Im Folgenden wird die Verknüpfung von Systemen anhand von zwei Beispielen demonstriert. Beispiel 4.37: Verknüpfung dreier Systeme Drei LTI-Systeme mit den Übertragungsfunktionen G1 (s), G2 (s) und G3 (s) werden entsprechend dem Signalflussplan in Abb. 4.11 verknüpft. Mit Hilfe der Verknüpfungsregeln ergibt sich sofort G(s) = G1 (s) · G2 (s) + G3 (s) als Übertragungsfunktion des Gesamtsystems.

(4.234) •

Abbildung 4.11: Beispiel zur Verknüpfung dreier Systeme.

Beispiel 4.38: Verknüpfung eines Systems mit Rückkopplung Ein LTI-System mit der Übertragungsfunktion G1 (s) wird, wie in Abb. 4.12 gezeigt, über eine Rückkopplung verknüpft. Dem Eingangssignal ye (t) wird dabei das Ausgangssignal ya (t) = g1 (t) ∗ ye1 (t)

(4.235)

4.4 Systemfunktion

189

Abbildung 4.12: Beispiel zur Verknüpfung eines Systems mit Rückkopplung.

über eine Rückkopplung addiert. Diese Summe ye1 (t) = ye (t) + ya (t)

(4.236)

dient als Eingangssignal des Systems S1 . Transformiert man beide Gleichungen in den Bildbereich, Ya (s) = G1 (s) · Ye1 (s) ,

(4.237)

Ye1 (s) = Ye (s) + Ya (s) ,

(4.238)

so erhält man die Übertragungsfunktion des gesamten Systems mit Rückkopplung wegen Ya (s) = G1 (s) · (Ye (s) + Ya (s))

(4.239)

zu G(s) =

4.4.3

G1 (s) . 1 − G1 (s)

(4.240) •

Frequenzgang

Bereits in Satz 4.13 wurde die Fourier-Transformierte G(f ) der Impulsantwort g(t) eines LTI-Systems als Frequenzgang eingeführt. Der Frequenzgang ist gerade der Proportionalitätsfaktor zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung ye (t) = A · ej2πf t

(4.241)

angeregt wird. Da die Fourier-Transformierte eines Signals im Allgemeinen komplexwertig ist, interessieren für das Übertragungsverhalten von Schwingungen der Betrag und die Phase des Proportionalitätsfaktors. Mit dem Frequenzgang G(f ) = A(f ) · ejψ(f ) ,

(4.242)

der sich, falls die komplexe Achse im Konvergenzbereich der Laplace-Transformierten liegt, für kausale Systeme aus G(s) für s = j2πf ergibt, lassen sich nun Betrag und Phase angeben.

4 Zeitkontinuierliche Systeme

190 Definition 4.17 Amplitudengang Der Betrag des Frequenzgangs p A(f ) = |G(f )| = (Re{G(f )})2 + (Im{G(f )})2

(4.243)

wird als Amplitudengang bezeichnet. Er beschreibt betragsmäßig den Zusammenhang zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung der Frequenz f angeregt wird. Definition 4.18 Dämpfung Die Dämpfung eines Systems mit dem Frequenzgang G(f ) ist durch a(f ) = −20 log10 |G(f )| = −20 lg |G(f )|

(4.244)

gegeben. Die Dämpfung wird in Dezibel (dB) angegeben. Sie beschreibt, wie stark die Amplitude einer Eingangsschwingung der Frequenz f beim Durchlauf durch das entsprechende System gedämpft wird, indem sie das Ein- und das Ausgangssignal in Beziehung setzt und diese Größe logarithmisch bewertet.

Beispiel 4.39: Dämpfung Eine Halbierung der Amplitude durch ein System, |G(f )| = 12 , entspricht einer Dämpfung von a(f ) = −20 lg 12 ≈ 6 dB. Eine Verstärkung des Eingangssignals um den Faktor 2, |G(f )| = 2, ergibt eine negative Dämpfung a(f ) = −6 dB. • Definition 4.19 Phasengang, Phase Der Winkel bzw. das Argument des komplexen Frequenzgangs    )} arctan Im{G(f für Re{G(f )} ≥ 0 Re{G(f )}   ψ(f ) = arg{G(f )} = ∠G(f ) = (4.245) arctan Im{G(f )} − π für Re{G(f )} < 0 Re{G(f )} wird als Phasengang oder Phase bezeichnet. Er beschreibt die Phasendifferenz zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung der Frequenz f angeregt wird.

Bemerkung 4.40 1. Da sich harmonische Signale mit einem Phasenunterschied von Vielfachen von 2π nicht unterscheiden, wird die Phase meist im Intervall von −π bis π dargestellt. Wird der Wert ±π unter- oder überschritten, resultiert dies in

4.4 Systemfunktion

191

einem „Sprung“ der Phase. Dieser Sprung entsteht dann aber lediglich aufgrund der Darstellung und spiegelt keine Charakteristik des Systems wider. 2. Im Falle Re{G(f )} = 0 ergibt sich das Argument des Arkustangens dem Betrag nach zu unendlich und somit die Phase zu ± π2 . Dies ist intuitiv klar, wenn man beachtet, dass die Bedingung Re{G(f )} = 0 gerade für rein imaginäre Zahlen erfüllt ist. 3. Bei der Definition 4.19 der Phase als Argument des Frequenzgangs entspricht eine negative Phase eines Systems einer Verzögerung des Eingangssignals (siehe Abschn. 3.5.2.3). Diese Zuordnung erschwert zwar manchmal das ingenieurmäßige Verständnis, hat sich aber in dieser Form durchgesetzt. • Neben Amplitude und Phase interessiert auch die Änderung der Phase über der Frequenz. Hierzu betrachtet man die Gruppenlaufzeit. Definition 4.20 Gruppenlaufzeit Die negative Ableitung der Phase eines Systems nach der Frequenz τg (f ) = −

1 0 1 d ψ (f ) = − ψ(f ) 2π 2π df

(4.246)

bezeichnet man als Gruppenlaufzeit. Eine positive Gruppenlaufzeit entspricht einer mit der Frequenz abfallenden Phase. Durchläuft ein Signal ein System mit gegebener Gruppenlaufzeit, so kann jede Frequenzkomponente des Signals eine andere Laufzeit erfahren, vergleiche den Zeitverschiebungssatz der Fourier-Transformation in Abschnitt 3.5.2.3. Diese Eigenschaft wird in der folgenden Bemerkung analysiert. Bemerkung 4.41 (Gruppenlaufzeit) Ist ein stabiles, kausales System mit der Übertragungsfunktion G(s) gegeben, so berechnet sich der Frequenzgang über G(f ) = G(s = j2πf ). Das System wird nun mit einem Eingangssignal x(t) = s(t) exp(j2πf0 t) angeregt, welches durch Modulation eines sehr schmalbandigen Informationssignals s(t) auf eine Trägerfrequenz f0 entsteht. Aufgrund der vorausgesetzten Schmalbandigkeit um f0 ist G(f ) lediglich im ∆f schmalen Frequenzband [f0 − ∆f 2 , f0 + 2 ] der Breite ∆f interessant. Ist diese Breite ∆f hinreichend klein, so kann dort mithilfe der Taylor-Reihe die Phase durch eine Gerade approximiert werden: ψ(f ) ≈ ψ0 − 2πτg (f0 ) (f − f0 ) ,

ψ0 = ψ(f0 ) .

(4.247)

Wird der Amplitudengang durch den Wert |G(f0 )| approximiert, so ergibt sich für den Frequenzgang die Näherung G(f ) ≈ |G(f0 )| · ej(ψ0 −2πτg (f0 ) (f −f0 )) .

(4.248)

4 Zeitkontinuierliche Systeme

192

Für das Ausgangssignal im Fourier-Bereich folgt damit:   Y (f ) = X(f ) · G(f ) = S(f ) ∗ δ(f − f0 ) · G(f ) ≈ S(f − f0 ) · |G(f0 )| · ej(ψ0 −2πτg (f0 ) (f −f0 )) = |G(f0 )| e

j(ψ0 +2πτg (f0 )f0 )

−j2πτg (f0 )f

· S(f − f0 ) · e

(4.249) (4.250) .

(4.251)

Durch inverse Fourier-Transformation ergibt sich das Ausgangssignal im Zeitbereich: y(t) = |G(f0 )| ej(ψ0 +2πτg (f0 )f0 ) s(t − τg (f0 )) ej2πf0 (t−τg (f0 ))

(4.252)

= |G(f0 )| ej(ψ0 +2πτg (f0 )f0 ) x(t − τg (f0 )) .

(4.253)

Damit ist τg (f0 ) die Laufzeit, welche ein Signal mit Spektralanteilen nur bei einer „Gruppe“ von Frequenzen um f0 beim Durchlauf durch das System benötigt. • Bemerkung 4.42 Die obigen Betrachtungen sind nur durchführbar, falls die Approximation in (4.247) möglich ist. Diese entspricht der Entwicklung der Phase in eine Art Taylor-Reihe und dem Abbruch der Entwicklung nach dem ersten Term. Somit ist auch die Interpretation der Gruppenlaufzeit als Durchlaufzeit bestimmter Frequenzgruppen durch das System nur bedingt zulässig. • Beispiel 4.43: Konstante Gruppenlaufzeit Ist τg (f ) konstant, so entspricht dies einem System mit einem linearen Phasenverlauf, wie in Abb. 4.13 gezeigt ist. 4

2

2

1

0

0

−2

−1

−4 −2

−1

0

1

2

−2 −2

−1

0

1

2

Abbildung 4.13: Phasengang und Gruppenlaufzeit eines Systems mit linearer Phase.

Die „Zacken“ in der Darstellung der Phase rühren – wie in Bemerkung 4.40 erwähnt – von der Konvention, die Phase immer im Bereich von −π bis π darzustellen. •

4.4 Systemfunktion

193

Nach (4.205) ist die Systemfunktion durch ihre Pol- und Nullstellen eindeutig festgelegt. Damit können auch der Amplituden- und Phasengang eines Systems durch die Pol- und Nullstellen beschrieben werden. Für die Bestimmung von Amplituden- und Phasengang wird die Systemfunktion G(s) an der Stelle j2πf m Q

G (s = j2πf ) = G0 ·

µ=1 n Q ν=1

(j2πf − s0µ )

(4.254)

(j2πf − s∞ν )

betrachtet. Dabei stellen j2πf − s∞ν und j2πf − s0µ die Differenzen zwischen dem Frequenzpunkt auf der imaginären Achse und den Pol- bzw. Nullstellen dar. Beschreibt man die komplexen Differenzen und die Konstante G0 in Polarkoordinaten, j2πf − s0µ = Nµ · ejβµ ,

Nµ ≥ 0 ,

(4.255)

j2πf − s∞ν = Pν · ejαν ,

Pν ≥ 0 ,

(4.256)

C ≥ 0,

(4.257)

G0 = C · ejγ ,

so erhält man aus der Systemfunktion an der Stelle j2πf den Frequenzgang in Polarkoordinatendarstellung: ! m n m n Y Y X X −1 G (s = j2πf ) = C · Nµ · Pν · exp jγ + j (4.258) βµ − j αν . µ=1

ν=1

µ=1

ν=1

In Abb. 4.14 sieht man ein Beispiel für eine Konstellation von zwei Pol- und zwei Nullstellen. Die Abstände der Pol- und Nullstellen sind durch Pν bzw. Nµ und die Winkel der Verbindungsgeraden zur Abzisse durch αν bzw. βµ gegeben.

Abbildung 4.14: Zusammenhang zwischen Pol-Nullstellendiagramm der Übertragungsfunktion und Frequenzgang.

Hieraus folgen der Amplitudengang in Pol-Nullstellendarstellung A(f ) = |G(s = j2πf )| = C ·

m Y µ=1

Nµ ·

n Y ν=1

Pν−1

(4.259)

4 Zeitkontinuierliche Systeme

194 und der Phasengang in Pol-Nullstellendarstellung: ψ(f ) = ∠ |G(s = j2πf )| =

m X µ=1

βµ + γ −

n X

αν .

(4.260)

ν=1

Bemerkung 4.44 Mit ansteigender Ordnung des Systems (d. h. höherer Anzahl an Pol- und Nullstellen) verändert sich der Phasengang stärker über der Frequenz. Um diese Tatsache einzusehen, kann man sich die möglichen Verläufe von Polynomen der Ordnungen 1, 2, 3 . . . in Erinnerung rufen. •

4.4.4

Bode-Diagramm

Im vorigen Abschnitt wurde der Frequenzgang G(f ) = |G(f )| · ejψ(f ) eines Systems eingeführt. Das Bode-Diagramm dient zur grafischen Darstellung des Frequenzgangs getrennt nach Betrag und Phase. Dabei wird der Amplitudengang |G(f )| logarithmisch in Dezibel aufgetragen, 20 lg |G(f )| = −a(f ) ,

(4.261)

der Phasengang ψ(f ) dagegen linear. Dadurch ergeben sich Vorteile bei der Behandlung einer Reihenschaltung von Systemen G(f ) = G1 (f ) · G2 (f ), da in diesem Fall sowohl der logarithmierte Amplitudengang 20 lg |G(f )| = 20 lg |G1 (f )| + 20 lg |G2 (f )|

(4.262)

des Gesamtsystems als auch die Gesamtphase ψ(f ) = ψ1 (f ) + ψ2 (f )

(4.263)

durch eine Addition der Beiträge der jeweiligen Teilsysteme angegeben werden können. Die Darstellung der beiden Komponenten des Frequenzgangs erfolgt als Funktion der logarithmierten Frequenz, wobei in der Literatur üblicherweise die Kreisfrequenz ω = 2πf als unabhängige Variable gewählt wird, d. h. man betrachtet G(ω) = G(2πf ). Bei einer logarithmischen Einteilung der Frequenzachse werden Frequenzintervalle oftmals in Dekaden oder in Oktaven angegeben. Eine Dekade bezeichnet dabei ein Frequenzintervall, dessen Grenzen sich um den Faktor zehn unterscheiden. Der Abstand zwischen zwei Frequenzen, die sich um den Faktor zwei unterscheiden, wird in Analogie zur Musik als eine Oktave bezeichnet. Nun stellt sich die Frage, wie Amplituden- und Phasengang konkret angegeben oder approximiert werden können. Die folgenden Betrachtungen skizzieren die Vorgehensweise und können ausführlich in [Fli91] nachgelesen werden.

4.4 Systemfunktion

195

Approximation des Amplitudengangs. Verwendet man die Form (4.218) einer Übertragungsfunktion, so folgt für die Amplitude (in dB) nach kurzer Rechnung −a(f ) = 20 lg |G˜0 | + 20 (m0 − n0 ) lg |j2πf | X m1 X j2πf m2 (2πf )2 j2πf + 20 lg − 1 + − 1 − 20 lg 2 s0µ |s0µ | Q0µ |s0µ | µ=1 µ=1 n n 2 1 X X (2πf )2 j2πf j2πf , − 1 − 20 lg − 1 − − 20 lg s∞ν |s∞ν |2 Q∞ν |s∞ν | ν=1 ν=1

(4.264)

wobei m m Q2 Q1 |s0µ |2 |s0µ | · µ=1 µ=1 ˜ G0 = |G0 | · Q n1 n2 Q |s∞ν | · |s∞ν |2 ν=1

(4.265)

ν=1

gilt. Nun gilt es, die verschiedenen Terme zu untersuchen. Der Ausdruck 20 lg |G˜0 | ist über alle Frequenzen konstant und beschreibt eine Grundverstärkung. Der Term 20 (m0 − n0 ) lg |j2πf | entsteht durch die Pol- und Nullstellen im Ursprung und resultiert in einer Verstärkung der Steigung (m0 −n0 ) · 6 dB pro Oktave bzw. (m0 −n0 ) · 20 dB pro Dekade. Eine reelle Polstelle s∞ν = σ∞ν ∈ R trägt zum Amplitudengang den Term 2πf −20 lg j − 1 σ∞ν

(4.266)

bei. Für 2πf → 0 geht dieser Ausdruck gegen 0, während er für 2πf  |σ∞ν | gegen −20 lg σ2πf geht, d. h. gegen eine Asymptote der Steigung −6 dB pro Oktave bzw. ∞ν −20 dB pro Dekade, die bei 2πf = |σ∞ν | die 0 dB-Achse schneidet. Der Beitrag reeller Nullstellen zum Amplitudengang ist bis auf das Vorzeichen derselbe. Jetzt ist noch zu untersuchen, welchen Beitrag ein konjugiert komplexes Polstellenpaar leistet. Hierzu betrachten wir    2πf 2πf 2Re{s∞ν } (2πf )2 −1 j ∗ − 1 = −20 lg 1 − − j2πf . (4.267) −20 lg j s∞ν s∞ν |s∞ν |2 |s∞ν |2 Dies strebt ebenfalls gegen null, wenn 2πf gegen null geht. Im Übergang 2πf  |s∞ν | hingegen strebt der Amplitudenverlauf gegen eine Asymptote der Steigung −12 dB pro Oktave bzw. −40 dB pro Dekade, welche bei 2πf = |s∞ν | die 0 dB-Achse schneidet. Der Beitrag eines konjugiert komplexen Nullstellenpaares ist bis auf das Vorzeichen derselbe. Mittels obiger Herleitungen kann somit der Amplitudenverlauf eines Systems aus den Pol- und Nullstellen der Übertragungsfunktion durch Überlagerung von Geradenstücken entsprechend der jeweiligen Anteile approximiert werden.

4 Zeitkontinuierliche Systeme

196

Approximation des Phasengangs. Ähnlich wie der Amplitudengang kann auch der Phasengang aus der Übertragungsfunktion ermittelt werden. Ausgehend von Gleichung (4.205) berechnet sich die Phase, wie bereits gezeigt, zu     m m Q Q (j2πf − s0µ ) |j2πf − s0µ | ejβµ     µ=1  = argG0 µ=1  (4.268) ψ(f ) = arg n n G0 Q    Q jα (j2πf − s∞ν ) |j2πf − s∞ν | e ν ν=1 m X

= arg(G0 ) +

µ=1

ν=1

βµ −

n X

αν ,

(4.269)

ν=1

wobei die Winkel αν und βµ dem Pol-Nullstellenplan entnommen werden können und den Winkeln entsprechen, welche in mathematisch positiver Richtung von jω = j2πf und der Parallelen durch einen Pol bzw. eine Nullstelle eingeschlossen werden. An dieser Stelle wird auf die Approximation des Phasengangs jedoch nicht näher eingegangen, sondern auf [Fli91] verwiesen. Die entscheidende Idee liegt darin, die Anteile ähnlich zur Approximation des Amplitudenganges anzunähern. Beispiel 4.45: Bode-Diagramm des Amplitudengangs Im folgenden Beispiel soll die Approximation des Amplitudenverlaufs eines Übertragungsgliedes mittels eines Bode-Diagrammes vorgeführt werden. Hierzu betrachten wir das System mit der Übertragungsfunktion G(s) = 0,1

(s + 1)(s2 + 2s + 4) . (s + 0,5)(s + 8)(s2 + 0,5 s + 1)

(4.270)

Die Nullstellen und Polstellen dieses Systems sind durch √ s01 = −1 , s02/3 = −1 ± j 3

(4.271)

bzw. s∞1 = −0,5 ,

s∞2 = −8 ,

s∞3/4

1 =− ±j 4

r

15 16

(4.272)

gegeben. Nach unseren Betrachtungen resultieren die Pol- bzw. Nullstellen dieser Übertragungsfunktion in folgenden Beiträgen zur Dämpfung: Bezeichnung g1 g2 h3 h4 h5 k6

Stelle |s01 | = 1 |s02 | = 2 |s∞1 | = 0,5 |s∞2 | = 8 |s∞3 | = 1 konst. Offset

Amplitudenverlauf 20 dB/Dekade 40 dB/Dekade −20 dB/Dekade −20 dB/Dekade −40 dB/Dekade −20 dB

4.4 Systemfunktion

197

Die „Halbgeraden“ beginnen auf der x-Achse an den Stellen der jeweiligen Nullstellen- bzw. Pol-Beträge. Bei einer logarithmierten x-Achse beginnt somit die Halbgerade gµ bzw. hν an der Stelle lg |s0µ | bzw. lg |s∞ν |. Zur Approximation des Amplitudenverlaufs müssen diese Halbgeraden additiv überlagert werden. Die Grundverstärkung G0 ist bedingt durch den Vorfaktor 0,1 und gemäß (4.265) durch die Beträge der Pole und Nullstellen.

Abbildung 4.15: Approximierter ( ) und tatsächlicher ( ) Amplitudenverlauf des Systems mit der Übertragungsfunktion (4.270) sowie approximierende Elementarausdrücke.

In Abb. 4.15 sind die approximierenden Geraden sowie der approximierte und der tatsächliche Amplitudenverlauf dargestellt. Man erkennt, dass die Approximation den Amplitudenverlauf nur näherungsweise nachzubilden vermag. Um einen exakten Verlauf zu erhalten, ist es unumgänglich, diesen zu berechnen. •

4.4.5

Minimalphasensystem und Allpass

Je nach Lage der Pole s∞ν relativ zur imaginären Achse unterscheidet man zwischen stabilen und instabilen Systemen. Bei stabilen kausalen Systemen liegen die Pole in der linken Halbebene. Bewertet man die Nullstellen s0µ von Übertragungsfunktionen ebenfalls nach ihrer Lage relativ zur imaginären Achse, so erhält man als neue Klassen von Systemfunktionen die Minimalphasensysteme und die Allpässe. Im Folgenden wird gezeigt, dass sich jede Systemfunktion in einen Minimalphasen- und einen Allpassanteil zerlegen lässt. Hierzu werden zunächst die Begriffe Allpass und Minimalphasensystem definiert.

4 Zeitkontinuierliche Systeme

198 Definition 4.21 Allpass

Ein System mit gebrochenrationaler Übertragungsfunktion, dessen Amplitudengang A(f ) für alle Frequenzen gleich eins ist, d. h. die Bedingung A(f ) = |G(f )| = 1 ,

f ∈ R,

(4.273)

erfüllt, heißt Allpass. Für solche Systeme ist der Zählergrad gleich dem Nennergrad, und es dürfen keine Pol- oder Nullstellen auf der imaginären Achse liegen. Aus der Forderung nach einem konstanten Amplitudengang A(f ) = 1 folgt m Q

|G(f )|2 =

µ=1 n Q ν=1

|j2πf − s0µ |2

!

= 1.

(4.274)

|j2πf − s∞ν |2

Um Triviallösungen auszuschließen, fordern wir s0µ 6= s∞ν . Der Betrag des Zählers ist gleich dem Betrag des Nenners, wenn s0µ = −s∗∞ν ,

µ=ν,

(4.275)

gewählt wird. Durch Einsetzen wird dies verifiziert: n Q 2

|G(f )| =

ν=1 n Q ν=1

|j2πf + s∗∞ν |2 |j2πf − s∞ν

|2

n Q

=

ν=1 n Q

|−j2πf − s∗∞ν |2

ν=1

|j2πf − s∞ν

= 1.

(4.276)

|2

Die Zählerterme sind konjugiert komplex zu den Nennertermen. Die Beträge beider sind jeweils gleich. Bei reellwertigen Systemen liegen immer zueinander konjugiert komplexe Pol- und Nullstellen vor. Man erreicht den konstanten Amplitudengang des Allpasses deshalb für s0µ = −s∞ν ,

µ=ν.

(4.277)

Die Nullstellen erhält man dann durch Spiegelung der Polstellen am Ursprung. Satz 4.46: Reellwertiger Allpass Ein reellwertiges System ist genau dann ein Allpass, wenn die Pol- und Nullstellen der Übertragungsfunktion G(s) die Bedingungen m = n und s0µ = −s∞ν ,

µ, ν = 1, . . . , m ,

µ=ν

(4.278)

4.4 Systemfunktion

199

erfüllen. Da bei stabilen kausalen Systemen die Polstellen links der imaginären Achse liegen, müssen die Nullstellen eines Allpasses rechts der imaginären Achse liegen. Die Übertragungsfunktion GA (s) des Allpasses ist somit: GA (s) = (−1)n

N (−s) . N (s)

(4.279) •

Definition 4.22 Minimalphasensystem Ein stabiles kausales System S mit gebrochenrationaler Übertragungsfunktion heißt Minimalphasensystem, wenn sämtliche Nullstellen s0µ seiner Übertragungsfunktion GM (s) =

Z(s) N (s)

(4.280)

in der linken Halbebene liegen, d. h. wenn sie die folgende Bedingung erfüllen: Re{s0µ } ≤ 0 .

(4.281)

Satz 4.47: Zerlegung kausaler LTI-Systeme Jedes kausale LTI-System G(s) lässt sich in ein Minimalphasensystem GM (s) und einen Allpass GA (s) aufspalten. • Beweis 4.48 (Zerlegung kausaler LTI-Systeme) Zum Beweis wird ein stabiles kausales System mit der Übertragungsfunktion G(s) betrachtet, deren Zählerpolynom Z(s) auch Nullstellen in der rechten Halbebene besitzt. Dann zerlegt man Z(s) gemäß Z(s) = Z1 (s) · Z2 (s)

(4.282)

in zwei Teilpolynome Z1 (s) = Z2 (s) =

m1 Y

(s − s0µ ) ,

µ=1 m Y

(s − s0µ ) ,

µ=m1 +1

Re{s0µ } ≤ 0 ,

µ = 1, . . . , m1 ,

(4.283)

Re{s0µ } > 0 ,

µ = m1 + 1, . . . , m ,

(4.284)

die jeweils nur Nullstellen in der abgeschlossenen linken bzw. offenen rechten Halbebene besitzen. Durch Erweiterung der Übertragungsfunktion mit Z2 (−s) gemäß Z(s) Z2 (s) Z1 (s) · Z2 (−s) G(s) = · (−1)m−m1 (4.285) = (−1)m−m1 N (s) N (s) Z2 (−s) {z } | {z } | = GM (s)

= GA (s)

4 Zeitkontinuierliche Systeme

200

Abbildung 4.16: Zerlegung eines kausalen LTI-Systems in ein Minimalphasensystem und einen Allpass.

ergibt sich die Zusammensetzung der Übertragungsfunktion aus einem Minimalphasensystem GM (s), das nur noch Nullstellen in der linken Halbebene besitzt, und einem Allpass GA (s) (vgl. Abb. 4.16). Die charakteristische Eigenschaft eines Minimalphasensystems wird durch den folgenden Satz beschrieben. Durch diese Eigenschaft begründet sich die Wahl des Namens für ein System mit Nullstellen ausschließlich in der linken Halbebene. Satz 4.49: Minimalphasensysteme Minimalphasensysteme besitzen die Eigenschaft, unter allen Systemen mit gegebenem Amplitudengang A(f ) die kleinstmögliche Gruppenlaufzeit zu besitzen. Für reellwertige Systeme ist damit auch der absolute Phasenhub über alle Frequenzen, d. h. von f = −∞ bis f = +∞, bei Verwendung eines Minimalphasensystems minimal. • Beweis 4.50 (Minimalphasensysteme) Sei G(s) die Übertragungsfunktion eines reellwertigen, stabilen, kausalen, nicht minimalphasigen Systems. Das System wird in ein Minimalphasensystem GM (s) und einen Allpass GA (s) zerlegt: G(s) = GM (s) ·

n Y s + s∞ν , s − s∞ν ν=1 {z } |

Re{s∞ν } < 0 .

(4.286)

= GA (s)

Zur Einhaltung der Stabilität des Allpasses gilt s∞ν = −αν + j2πfν ,

αν > 0 .

(4.287)

4.4 Systemfunktion

201

Die Phase eines Faktors s + s∞ν Gν (s) = s − s∞ν

(4.288)

erhält man wegen ejψν (f ) =

j2πf + (−αν + j2πfν ) −αν + j2π(f + fν ) = j2πf − (−αν + j2πfν ) αν + j2π(f − fν )

(4.289)

nach (4.260) zu     2π(f − fν ) 2π(f + fν ) − π − arctan , ψν (f ) = arctan −αν αν

(4.290)

was zur Gesamtphase ψA (f ) =

n X

ψν (f )

(4.291)

ν=1

des Allpasses GA (s) führt. Die Gruppenlaufzeiten 1 d ψν (f ) 2π df   1 1 = αν >0 + αν2 + 4π 2 (f + fν )2 αν2 + 4π 2 (f − fν )2

τgA (f ) = −

(4.292) (4.293)

sind positiv, da der Realteil αν > 0 positiv angesetzt war. Somit ist die Gesamtphase ψA (f ) des Allpasses monoton fallend und dessen Gruppenlaufzeit positiv. Aus ψ(f ) = ψM (f ) + ψA (f ) folgt für die Gruppenlaufzeit des Gesamtsystems τg (f ) = τgM (f ) + τgA (f ) ≥ τgM (f ) .

(4.294)

Es lässt sich also sagen, dass von allen Systemen mit gleichem Amplitudenverlauf die minimalphasigen die kleinste Gruppenlaufzeit τgM (f ) besitzen. Für reellwertige Systeme ist der Phasenverlauf nach (4.217) schiefsymmetrisch, geht also durch den Ursprung. Für reellwertige Systeme ist deshalb auch die absolute Phase |ψ(f )| bei einem Minimalphasensystem minimal.

4.4.6

Strukturdarstellung kontinuierlicher LTI-Systeme

Nach (4.204) ist die Übertragungsfunktion eines mittels einer Differentialgleichung beschriebenen LTI-Systems ohne Totzeit durch m P

G(s) =

µ=0 n P ν=0

bµ sµ (4.295) aν sν

4 Zeitkontinuierliche Systeme

202

gegeben. Anhand dieser Übertragungsfunktion werden LTI-Systeme in verschiedene Klassen eingeteilt. Zur Visualisierung solch eines Systems wird die Übertragungsfunktion in eine Darstellung überführt, die dem Betrachter auf naheliegende Weise die Vorgänge im System veranschaulicht. Hierzu verwandelt man (4.295) in ein Strukturbild. Je nach Art des Systems ergeben sich verschiedene Darstellungen. Definition 4.23 ARMA-Filter Ein ARMA-Filter (engl.: auto-regressive, moving average) ist dadurch charakterisiert, dass die Übertragungsfunktion sowohl aus einem Zähler- als auch einem Nennerpolynom besteht, und stellt die allgemeine Form eines gebrochenrationalen Übertragungsgliedes dar. Die Übertragungsfunktion ist durch (4.295) gegeben. Um die Strukturdarstellung des Systems zu erhalten, betrachten wir noch einmal die Übertragungsfunktion des Systems. Damit bei der Darstellung für ya (t) und ye (t) die gleiche Anzahl von Zweigen vorliegt, wählt man M = max{n, m}, ergänzt das Polynom niedrigeren Grades um Potenzen von s mit den Koeffizienten null und erhält: M P

G(s) =

bµ sµ

µ=0 M P

.

(4.296)

aν sν

ν=0

Dies lässt sich bei verschwindenden Anfangswerten über die inverse Laplace-Transformation in die folgende Differentialgleichung umwandeln: M X ν=0

aν ya(ν) (t) =

M X

bµ ye(µ) (t) .

(4.297)

µ=0

Hierzu müssen die Anfangswerte des Systems zu null angenommen werden, d. h. das System muss sich zum Zeitpunkt t = 0 in Ruhe befinden. Integrieren wir nun, ohne Beachtung mathematisch exakter Notation, beide Seiten M mal, so erhalten wir Z Z Z aM ya (t) + aM −1 ya (t) + · · · + a0 . . . ya (t) | {z } M -mal Z Z Z = bM ye (t) + bM −1 ye (t) + · · · + b0 . . . ye (t) . (4.298) | {z } M -mal

Die Integration wird durch ein Quadrat mit eingezeichneter Diagonale visualisiert, was an die Sprungantwort des Integrierers erinnern soll. Für die Darstellung der Strukturen normieren wir die Koeffizienten der Übertragungsfunktion, indem (4.298)

4.4 Systemfunktion

203

Abbildung 4.17: Struktur eines ARMA-Filters.

durch aM dividiert wird, was eine Auflösung nach ya (t) und somit eine einfachere Darstellung ermöglicht. Abbildung 4.17 stellt die resultierende Struktur eines ARMAFilters dar. Man erkennt, wie das Zähler- und das Nennerpolynom bzw. die Gleichung (4.298) in die Darstellung eingehen. Das Zählerpolynom ist in den linken Zweigen der Darstellung enthalten und sorgt dafür, dass neben dem Eingangssignal auch dessen Ableitungen auf das Ausgangssignal einwirken. Das Nennerpolynom repräsentiert die rekursive Komponente des Systems und koppelt das Ausgangssignal zurück. Wirkt das Eingangssignal nur direkt auf das Ausgangssignal ein, d. h. spielen seine Ableitungen keine Rolle, während Rückkopplungen des Ausgangssignals auftreten, so entsteht Abb. 4.18. Diese Struktur nennt man AR-Filter. Man erkennt an dieser Zeichnung die Zweige, die das Ausgangssignal zurückkoppeln und somit für das Nennerpolynom verantwortlich sind. Definition 4.24 AR-Filter Als AR-Filter (engl.: auto-regressive) wird ein System bezeichnet, bei dem sich die Übertragungsfunktion G(s) wie folgt angeben lässt: G(s) =

bM sM . M P aν sν

(4.299)

ν=0

Bei einem MA-Filter sind keine Rückkopplungen des Ausgangs vorhanden. Das Ausgangssignal wird aus dem Eingangssignal und integrierten Eingangssignalen aufge-

4 Zeitkontinuierliche Systeme

204

Abbildung 4.18: Struktur eines AR-Filters.

Abbildung 4.19: Struktur eines MA-Filters.

baut. Somit stellt das Ausgangssignal eine Mittelung über das Eingangssignal und seine Integrale dar. Definition 4.25 MA-Filter Ein System wird MA-Filter (engl.: moving average) genannt, falls es die Übertragungsfunktion m P

G(s) =

bµ sµ

µ=0

aM sM

(4.300)

besitzt. Es ergibt sich die in Abb. 4.19 dargestellte Struktur.

4.5

Frequenzselektive Filter

Frequenzselektive Filter haben die Aufgabe, bestimmte Frequenzen eines Signals möglichst unbeeinflusst zu lassen und andere möglichst vollständig zu unterdrücken. Sie werden eingeteilt in Tiefpass-, Hochpass- und Bandpass-Filter – je nachdem, welche Frequenzen ausgeblendet werden sollen. Idealerweise besitzen sie einen Amplitudengang, der im Durchlassbereich den Wert eins und im Sperrbereich den Wert null besitzt. Abbildung 4.20 zeigt die Amplitudengänge idealer Tiefpass-, Hochpass-, Bandpass-Filter sowie einer idealen Bandsperre.

4.5 Frequenzselektive Filter

205

Abbildung 4.20: Amplitudengänge idealer frequenzselektiver Filter.

Soll ein frequenzselektives Filter als LTI-System realisiert werden, ist die Übertragungsfunktion gebrochenrational. Offensichtlich können jedoch solche idealen Verläufe, wie sie in Abb. 4.20 dargestellt sind, mit gebrochenrationalen Funktionen nicht erreicht werden und somit solche idealen frequenzselektiven Filter nicht als LTI-Systeme realisiert werden. Dies lässt sich mittels des Riemann-Lebesgue’schen Lemmas zeigen. Aufgrund der durch eine unendlich steile Flanke begrenzten Übertragungsfunktion ist die dazugehörige Zeitfunktion – die Impulsantwort – nicht zeitbegrenzt. Ein Filter mit solch einer Impulsantwort ist natürlich nicht realisierbar, da ein Signal stets auf einen endlichen Zeitraum begrenzt ist. Der Frequenzgang eines idealen Filters kann also nur approximiert werden. Die Abweichungen vom gewünschten Verhalten werden in einem Toleranzschema zusammengestellt. Abbildung 4.21 stellt solche Toleranzschemata dar. Die zugelassenen Abweichungen vom idealen Amplitudengang im Durchlass- und im Sperrbereich sind δD bzw. δS . Die Grenzen des Durchlass- bzw. Sperrbereiches sind durch fD bzw. fS gekennzeichnet. Für den Entwurf frequenzselektiver Filter wird eine auf die Durchlassfrequenz fD normierte Frequenzachse f0 =

f fD

(4.301)

benutzt. Der Entwurf findet dann im f 0 -Bereich statt. Der dort gefundene Frequenzgang G0 (j2πf 0 ) wird anschließend durch die Substitution   f G(j2πf ) = G0 j2π (4.302) fD zurücktransformiert.

4 Zeitkontinuierliche Systeme

206

Abbildung 4.21: Toleranzschemata für die Amplitudengänge frequenzselektiver Filter.

4.5.1

Filtertransformation

Mit Hilfe von Filtertransformationen gelingt es, Tiefpässe, Hochpässe und Bandpässe auf normierte Tiefpässe abzubilden. Der Entwurf einer Bandsperre kann durch Entwurf eines Bandpasses und eines Filters mit dem Frequenzgang G(f ) = 1 realisiert werden. Damit wird der Entwurf für alle diese Filtertypen auf den Entwurf normierter Tiefpässe zurückgeführt. Satz 4.51: Tiefpass-Tiefpass-Transformation Mit Hilfe der Tiefpass-Tiefpass-Transformation f0 =

f fD

(4.303)

erhält man aus einem Tiefpass mit gegebener Durchlassfrequenz fD einen normierten Tiefpass mit fD0 = 1. • Satz 4.52: Hochpass-Tiefpass-Transformation Mit Hilfe der Hochpass-Tiefpass-Transformation f0 =

fD f

(4.304)

erhält man aus einem Hochpass einen normierten Tiefpass und bildet dabei die Durchlassgrenze f = fD auf fD0 = 1 ab. •

4.5 Frequenzselektive Filter

207

Satz 4.53: Bandpass-Tiefpass-Transformation Mit Hilfe der Bandpass-Tiefpass-Transformation f0 =

f 2 − fD f−D (fD − f−D )f

(4.305)

erhält man aus einem symmetrischen Bandpass einen normierten Tiefpass. Dies gilt für symmetrische Bandpässe, für welche die Bedingung fD f−D = fS f−S

(4.306) •

erfüllt ist.

Bemerkung 4.54 (Symmetrische Bandpässe) Bei symmetrischen Bandpässen handelt es sich nicht um die der Vorstellung entsprechende Interpretation der Symmetrie. Vielmehr ist die geforderte Symmetrie auf die Bedürfnisse zur Transformation auf einen normierten Tiefpass angepasst. Exemplarisch sollen zur Verdeutlichung die „Bildfrequenzen“ von fD und fS berechnet werden: fD0 =

fD2 − fD f−D fD (fD − f−D ) = = 1, (fD − f−D )fD (fD − f−D )fD

(4.307)

fS0 =

fS2 − fD f−D fS (fS − f−S ) fS − f−S = = . (fD − f−D )fS (fD − f−D )fS fD − f−D

(4.308)

Die normierte Sperrfrequenz ist offensichtlich größer als 1.



Die Filtertransformationen bilden also die Toleranzschemata der verschiedenen Filtertypen auf das Toleranzschema des normierten Tiefpasses ab, welches in Abb. 4.22 dargestellt ist.

Abbildung 4.22: Toleranzschema für den Amplitudengang eines normierten Tiefpasses.

4 Zeitkontinuierliche Systeme

208

4.5.2

Entwurf normierter Tiefpässe

In diesem Abschnitt werden Standardverfahren zum Entwurf normierter Tiefpässe behandelt. Die Aufgabe besteht letztlich darin, Funktionen zu finden, die einem Toleranzschema der in Abb. 4.22 dargestellten Form genügen. Zur Lösung der Aufgabe wird der Ansatz A2 (f 0 ) = |G0 (s0 = j2πf 0 )|2 =

1 , 1 + ε2 |D(f 0 )|2

ε∈R

(4.309)

mit einer geeignet zu wählenden Funktion D(f 0 ) gemacht. Da ε quadratisch eingeht, kann ab sofort ε > 0 angenommen werden. Statt |G0 (s0 = j2πf 0 )|2 verwendet man auch die Darstellung für das Betragsquadrat der Übertragungsfunktion für reellwertige Systeme nach (4.221) 0 0 0 0 0 0 0 0 2 0 Q(s ) = G (s ) · G (−s ) =⇒ |G (s = j2πf )| = Q(s ) , (4.310) 0 0 s =j2πf

deren Pole (und auch die Nullstellen) punktsymmetrisch zum Ursprung sowohl in der rechten als auch in der linken Halbebene liegen. Hat man einen entsprechenden Amplitudengang A(f ) gefunden, so lässt sich die Übertragungsfunktion Q(s0 ) durch = G0 (s0 ) · G0 (−s0 ) (4.311) Q(s0 ) = A2 (f 0 ) 0 s0 f = j2π

bestimmen. Für die Übertragungsfunktion G0 (s0 ) sucht man sich die Pole der Übertragungsfunktion Q(s0 ) aus, die ein stabiles, kausales und somit ein realisierbares System darstellen, also die Pole in der linken Halbebene. Aus (4.309) folgt sofort p 1 − A2 (f 0 ) , ε |D(f )| = A(f 0 ) 0

(4.312)

woraus deutlich wird, dass stets A(f 0 ) ≤ 1 bleiben muss. Aus dem Toleranzschema, wie es in Abb. 4.22 dargestellt ist, ergeben sich die folgenden Forderungen für den Durchlass- und Sperrbereich: A(f 0 ) ≥ 1 − δD , A(f 0 ) ≤ δS ,

0 ≤ f0 ≤ 1 ,

(4.313)

f 0 ≥ fS0 .

(4.314)

Nach (4.312) werden diese Forderungen eingehalten, wenn die Bedingungen p ∆D =

2 2δD − δD ≥ ε|D(f 0 )| , 1 − δD

0 ≤ f0 ≤ 1

(4.315)

4.5 Frequenzselektive Filter

209

und p ∆S =

1 − δS2 ≤ ε|D(f 0 )| , δS

f 0 ≥ fS0

(4.316)

erfüllt sind. Die Lösung der Entwurfsaufgabe besteht darin, unter den Bedingungen (4.315) und (4.316) eine Konstante ε und eine Funktion D(f 0 ) so zu bestimmen, dass aus der Funktion A2 (f 0 ) eine gebrochenrationale Übertragungsfunktion G0 (s0 ) mit |G0 (s0 = j2πf 0 )| = A(f 0 )

(4.317)

gewonnen werden kann, die einen kleinstmöglichen Grad besitzt und ein realisierbares zeitkontinuierliches Filter beschreibt. Hierfür sind verschiedene Ansätze möglich.

4.5.2.1

Butterworth-Filter

Beim Butterworth-Filter1 wird der Ansatz D(f 0 ) = (j2πf 0 )N

(4.318)

und somit |D(f 0 )|2 = (2πf 0 )2N

(4.319)

gemacht. Aus (4.309) folgt damit die Bestimmungsgleichung für die Pole von Q(s0 ), 1 1 2 0 0 A (f ) = Q(s ) = = , (4.320) 2 0 2 2 0 1 + ε |D(f )| 1 + ε (2πf 0 )2N 0 s =j2πf

die sich mit 1 + ε2

 0 2N s =0 j

(4.321)

zu s0∞ν = j ε− N e j 1

(2ν−1)π 2N

π 1 = ε− N e j( 2 +

2ν−1 π N 2)

,

ν = 1, . . . , 2N ,

(4.322) 1

ergeben. Sie liegen also gleichmäßig verteilt auf einem Kreis mit dem Radius r = ε− N . Für das stabile, kausale Filter werden für G(s0 ) die Pole in der linken s0 -Halbebene benutzt (ν = 1, . . . , N ). Aus der Bedingung (4.315) mit |D(f 0 )| = |2πf 0 |N , p 2 2δD − δD ≥ ε|2πf 0 |N , 0 ≤ f0 ≤ 1 , (4.323) ∆D = 1 − δD erhält man ε≤ 1 Benannt

∆D , (2π)N (f 0 )N

0 ≤ f0 ≤ 1 ,

nach dem britischen Physiker S TEPHEN B UTTERWORTH (1885–1958).

(4.324)

4 Zeitkontinuierliche Systeme

210 und somit das maximal mögliche ε für f 0 = 1 zu ε=

∆D . (2π)N

(4.325)

Setzt man |D(f 0 )| = |2πf 0 |N in die Bedingung (4.316) ein, p 1 − δS2 ∆S = ≤ ε(2πf 0 )N , f 0 ≥ fS0 , δS

(4.326)

so erhält man mit (4.325) die folgende Bedingung für den Sperrbereich: ∆S ≤ ∆D · (f 0 )N ,

f 0 ≥ fS0 .

(4.327)

Da diese Ungleichung für alle Frequenzen f 0 ≥ fS0 gelten muss, folgt hieraus durch Auflösung nach N für die Ordnung K eines Butterworth-Filters:   ∆S ln ∆ D . (4.328) K≥N ≥ ln(fS0 ) Damit der Grad des Filters mit dieser Wahl von D(f 0 ) minimal wird, muss K offenbar als die kleinstmögliche ganze Zahl gewählt werden, die (4.328) erfüllt. Natürlich kann K auch wesentlich größer als N gewählt werden. Dann steigt zwar einerseits der Realisierungsaufwand, andererseits wird jedoch das Toleranzschema besser eingehalten. Die nach dem Butterworth-Verfahren berechneten Filter zeichnen sich durch einen maximal flachen Verlauf im Durchlass- und Sperrbereich aus. Ein großer Nachteil der Butterworth-Tiefpässe ist der breite Übergang vom Durchlass- zum Sperrbereich bei gegebener Ordnung K. Durch andere Entwurfsverfahren, die im folgenden Abschnitt beschrieben werden, lässt sich dieses Übergangsverhalten günstiger gestalten. Allerdings hat man dafür einen Preis zu zahlen, indem man beispielsweise auf den flachen Verlauf des Amplitudengangs im Durchlassbereich verzichtet. Beispiel 4.55: Butterworth-Filter Das Toleranzschema eines normierten Tiefpasses mit fD0 = 1 ,

fS0 = 2 ,

δD = 0,2

und

δS = 0,1

(4.329)

erzeugt über die Gleichungen (4.315) und (4.316) die Parameter p p 2 √ 2δD − δD 1 − δS2 3 und ∆S = = = 99 ≈ 9,95 . (4.330) ∆D = 1 − δD 4 δS Mit der Abschätzung   ∆S ln ∆ D ≈ 3,73 K≥N ≥ ln(fS0 )

(4.331)

4.5 Frequenzselektive Filter

211

erhält man die minimale Ordnung des Filters zu K = 4. Die Pole des stabilen kausalen Systems nach (4.322), s0∞ν = 

1 ∆D (2π)4

π

j( + 1/4 e 2

2ν−1 π) 8

=



π

1/4 ∆D

ej( 2 +

2ν−1 π) 8

,

ν = 1, . . . , 4 , (4.332)

findet man in Abb. 4.23 skizziert. Numerisch lauten diese: s∞1 = −2,5838 + j 6,2378 ,

s∞2 = −6,2378 + j 2,5838 ,

(4.333)

s∞3 = −6,2378 − j 2,5838 ,

s∞4 = −2,5838 − j 6,2378 .

(4.334)

Der Amplitudengang und das Toleranzschema finden sich in Abb. 4.24. Man erkennt, dass der Entwurf das Toleranzschema erfüllt. Abbildung 4.25 zeigt den Phasengang und die Gruppenlaufzeit von G(s). • 1 0,8 0,6 0,4 0,2 0

Abbildung 4.23: Pol-Schema der Übertragungsfunktion G(s) bei einem ButterworthAnsatz der Ordnung K = 4. 4

0

1

2

3

Abbildung 4.24: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 4. 0,05 0,04

2

0,03 0

0,02 0,01

−2 −4 −10

0 −5

0

5

10

−10

−5

0

5

10

Abbildung 4.25: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 4.

4 Zeitkontinuierliche Systeme

212 Beispiel 4.56: Butterworth-Filter steilerer Flanke

In diesem Beispiel wird auf der Basis desselben Toleranzschemas wie in Beispiel 4.55 ein Butterworth-Filter steilerer Flanke entworfen. Verwendet man hierzu die Ordnung K = 12 und berechnet damit erneut die Größen ∆D , ∆S und ε, so entsteht der in Abb. 4.26 dargestellte Amplitudengang. Bei Betrachtung der Phase und der Gruppenlaufzeit des resultierenden Entwurfs in Abb. 4.27 ist zu erkennen, dass die steilere Flanke im Amplitudengang auf eine stärkere Verzerrung der Phase führt. • 1 0,8 0,6 0,4 0,2 0

0

1

2

3

Abbildung 4.26: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 12. 4

0,05 0,04

2

0,03 0

0,02 0,01

−2 −4 −10

0 −5

0

5

10

−10

−5

0

5

10

Abbildung 4.27: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 12.

4.5.2.2

Tschebyschow-Filter

Beim Tschebyschow-Filter2 unterscheidet man die beiden Arten Typ I und Typ II. Der Typ I besitzt im Durchlassbereich eine gleichmäßige Welligkeit und ist im Sperrbereich 2 Benannt

nach dem russischen Mathematiker PAFNUTI LWOWITSCH T SCHEBYSCHOW (1821–1894).

4.5 Frequenzselektive Filter

213

monoton fallend. Dagegen ist Typ II im Durchlassbereich monoton fallend und besitzt im Sperrbereich eine gleichmäßige Welligkeit. Beim Tschebyschow-Filter vom Typ I wird der Ansatz |D(f 0 )|2 = TN2 (f 0 )

(4.335)

mit dem Tschebyschow-Polynom erster Art  cos(N arccos(f 0 )) für |f 0 | ≤ 1 TN (f 0 ) = 0 cosh(N arcosh(f )) für |f 0 | > 1

(4.336)

gemacht. Wegen ε|D(f 0 )| = ε |cos(N arccos(f 0 ))| ≤ ∆D ,

0 ≤ f0 ≤ 1 ,

(4.337)

muss ε ≤ ∆D

(4.338)

gelten und man kann ε = ∆D

(4.339)

wählen. Mit dem so gewählten ε folgt aus (4.316) die Gleichungskette ! ε|D(f 0 )| = ∆D TN (fS0 ) = ∆D cosh(N arcosh(fS0 )) ≥ ∆S , 0 0

(4.340)

f =fS

woraus die Abschätzung für die Ordnung K des Systems folgt:   ∆S arcosh ∆ D K≥N ≥ . arcosh(fS0 )

(4.341)

Die Pole liegen auf einer Ellipse mit den Halbachsen sinh(α) und cosh(α), wobei   1 1 (4.342) arsinh α= K ∆D gilt. Beim Tschebyschow-Filter vom Typ II wird der Ansatz |D(f 0 )|2 =

TN2 (fS0 )  0 f TN2 fS0

(4.343)

gewählt. Mit den Gleichungen (4.315) und (4.316) erhält man analog zu obiger Herleitung bei erneuter Wahl von ε = ∆D hier die identische Abschätzung   ∆S arcosh ∆ D (4.344) K≥N ≥ arcosh(fS0 )

4 Zeitkontinuierliche Systeme

214 Typ I − Ordnung gerade

Typ I − Ordnung ungerade

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0

1

2

3

0

0

Typ II − Ordnung gerade 1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2 0

1

2

2

3

Typ II − Ordnung ungerade

1

0

1

3

0

0

1

2

3

Abbildung 4.28: Amplitudengänge von Tschebyschow-Filtern des Typs I und des Typs II jeweils bei gerader (K = 6) bzw. ungerader (K = 7) Ordnung.

für die Ordnung des Systems. In Abb. 4.28 werden die Amplitudengänge eines Tschebyschow-Filters Typ I und Typ II jeweils bei gerader bzw. ungerader Ordnung dargestellt. Einen weiteren Filtertyp, der sowohl im Durchlass- als auch im Sperrbereich eine gleichmäßige Welligkeit besitzt und bei gleicher Ordnung noch steiler als die Tschebyschow-Filter abfällt, stellen die elliptischen Cauer-Filter dar, deren Behandlung in diesem Rahmen jedoch nicht erfolgen soll. Eine Beschreibung ist beispielsweise in [KK18] zu finden.

4.5.3

Bestimmung der Übertragungsfunktion

Zum Abschluss der frequenzselektiven Filter wird die Ermittlung der Übertragungsfunktion des Filters bei gegebenen Pol- und Nullstellen behandelt. G(s) und G0 (s0 ) besitzen nur Pole in der linken Halbebene. Daher sind die gefundenen kausalen Systeme stabil. Butterworth- und Tschebyschow-Typ-I-Filter haben keine Nullstellen, während Tschebyschow-Typ-II-Filter Nullstellen auf der imaginären Achse haben.

4.5 Frequenzselektive Filter

215

Die bisher beschriebenen Verfahren für den Entwurf normierter Tiefpässe führen auf eine Übertragungsfunktion der Form m Q

(s0 − s00µ )

µ=1 n Q

G0 (s0 ) = G0 ·

ν=1

,

(s0 − s0∞ν )

m ≤ n.

(4.345)

Hierbei ist zu bedenken, dass es sich um eine normierte Übertragungsfunktion handelt, aus der die eigentliche Übertragungsfunktion erst noch gemäß (4.302) abgeleitet werden muss. Für die Rücktransformation eines normierten Tiefpasses erhält man beispielsweise: m Q 0

G(s) = G



s fD

 = G0 ·

( fsD − s00µ )

µ=1 n Q

( fsD − s0∞ν )

m Q

=

(s − fD s00µ )

µ=1 G0 · fDn−m Q n

ν=1

ν=1

. (4.346)

(s − fD s0∞ν )

Analoge Rechnungen ergeben sich bei den anderen Transformationen. Sind die Pole und Nullstellen bekannt, so lässt sich die Systemkonstante G0 bei den beschriebenen Verfahren aufgrund der Forderung |G0 (j2π)| = 1 − δD wie folgt berechnen: n Q |s0 − s0∞ν | |G0 | = (1 − δD ) · ν=1 . (4.347) m Q 0 0 |s − s0µ | µ=1

s0 =j2π

Für die Ordnung n des Nennerpolynoms wird nach den Gleichungen (4.328), (4.341) oder (4.344) die gefundene minimale Ordnung K eingesetzt. Das Zählerpolynom hat beim Butterworth-Filter die Ordnung m = 0. Bemerkung 4.57 Für die Konstante G0 lässt sich aus obigen Gleichungen nur der Betrag bestimmen, da die Eigenschaft A(f 0 = 1) = |G(f 0 = 1)| verwendet wird. Die Lösungen dieser Gleichung bilden einen Kreis in der komplexen Ebene mit dem Radius |G0 |. Bei Betrachtung reellwertiger LTI-Systeme ist ein reeller Verstärkungsfaktor zu wählen, weshalb G0 als positive reelle Größe gewählt wird. • Bemerkung 4.58 Bei den behandelten Approximationsverfahren wurde ε=

∆D (2π)K

(4.348)

4 Zeitkontinuierliche Systeme

216 im Falle des Butterworth-Filters beziehungsweise ε = ∆D

(4.349)

im Falle der Tschebyschow-Filter gewählt. Für den normierten Amplitudengang ergibt sich aus dem Toleranzschema A(f 0 = 1) = 1 − δD ,

(4.350)

was sich leicht nachrechnen lässt und hier exemplarisch für das Butterworth-Filter durchgeführt wird: s s 1 1 0 A(f = 1) = = (4.351) 1 + ε2 D2 (f 0 = 1) 1 + ε2 (2π)2K v v u u 1 1 u u =t = = 1 − δD . (4.352) t 2 ∆2D 2δ D −δD 1 + (2π)2K (2π)2K 1 + (1−δ 2 ) D •

4.6

Hilbert-Transformation

Die Hilbert-Transformation ist ein spezielles reellwertiges, lineares, akausales Filter, welches in der Signalverarbeitung eine wichtige Rolle spielt. Obwohl sie in der Praxis nicht exakt realisiert werden kann, lässt sie sich rechnerisch hinreichend gut approximieren (Abschnitt 6.8.1). Im Frequenzbereich ist sie durch ein Quadraturfilter mit dem Frequenzgang   −j für f > 0 für f = 0 GQ (f ) = 0 (4.353)  j für f < 0 definiert. Das Filter operiert auf dem Eingangssignal mittels Phasendrehung, wobei die Anteile der positiven Frequenzen um − π2 = b − 90◦ und die Anteile der negativen π ◦ b 90 gedreht werden. Frequenzen um + 2 = Für die Berechnung der Impulsantwort dieses Filters definiert man mit α > 0 die Hilfsfunktion  für f > 0  −j e−αf für f = 0 , (4.354) G(f ) = 0  αf je für f < 0 um die Konvergenz des inversen Fourier-Integrals zu sichern. Die entsprechende Impulsantwort lautet Z∞ g(t) =

j2πf t

G(f ) e −∞

Z0 df = j −∞

e

(α+j2πt)f

df − j

Z∞ 0

e(−α+j2πt)f df

(4.355)

4.6 Hilbert-Transformation =

j j + . α + j2πt −α + j2πt

217 (4.356)

Im Grenzübergang α → 0 geht G(f ) in GQ (f ) über. Die Impulsantwort g(t) wird dann zur Impulsantwort   1 für t 6= 0 gQ (t) = πt (4.357)  0 für t = 0 des Quadraturfilters. Satz 4.59: Quadraturfilter Die Impulsantwort eines Quadraturfilters, d. h. eines Filters mit dem Frequenzgang   −j für f > 0 für f = 0 , (4.358) GQ (f ) = 0  j für f < 0 ist durch die akausale Funktion   1 für t 6= 0 gQ (t) = πt  0 für t = 0

(4.359)

gegeben (Abb. 4.29).

Abbildung 4.29: Impulsantwort gQ (t) des Quadraturfilters.

Definition 4.26 Hilbert-Transformation Durchläuft ein Signal y(t) ein Quadraturfilter mit der Impulsantwort gQ (t), so resultiert das Signal yˇ(t) = y(t) ∗ gQ (t), welches als Hilbert-Transformierte des Signals y(t) bezeichnet wird und als yˇ(t) = H{y(t)} geschrieben wird. Wegen GQ (0) = 0 ist die Hilbert-Transformierte eines mittelwertbehafteten Signals mittelwertfrei.



4 Zeitkontinuierliche Systeme

218

Ist das Signal mittelwertfrei, so ist die Hilbert-Transformierte bis auf das Vorzeichen „selbst-invers“. Die Bedingung der Mittelwertfreiheit des Signals ist nötig, da nach der Anwendung der Hilbert-Transformation ein mittelwertfreies Signal entsteht. Somit kann nur in diesem Fall die folgende Aussage nachgewiesen werden: Satz 4.60: Hilbert-Transformation Die zweimalige Anwendung der Hilbert-Transformation entspricht bei mittelwertfreien Signalen dem Negativen des Ursprungssignals: y(t) mittelwertfrei

H{H{y(t)}} = −y(t) .

=⇒

(4.360) •

Beweis 4.61 (Hilbert-Transformation) Wegen F{H{H{y(t)}}} = F{H{y(t)}} · GQ (f ) = Y (f ) GQ (f ) GQ (f )

(4.361)

ergibt sich für ein Signal mit Y (0) = 0 sofort die behauptete Aussage. Nach der exemplarischen Berechnung der Hilbert-Transformierten zweier Funktionen folgt im Anschluss die Herleitung einer weiteren Eigenschaft der Hilbert-Transformation und eine Erklärung des theoretischen und praktischen Nutzens dieser Transformation. Beispiel 4.62: Hilbert-Transformierte des Cosinussignals Es gilt: y(t) = cos(2πf0 t)

◦−•

Y (f ) =

1 (δ(f + f0 ) + δ(f − f0 )) . 2

(4.362)

Hieraus folgt die Hilbert-Transformierte j Yˇ (f ) = Y (f ) · GQ (f ) = (δ(f + f0 ) − δ(f − f0 )) 2 • ◦ yˇ(t) = sin(2πf0 t) .

(4.363)

(4.364)

Das Ergebnis ist auch sofort verständlich, da sich das Sinussignal vom Cosinussignal durch eine Phasenverschiebung von π/2 unterscheidet und das Filter GQ (f ) gerade solch eine Phasendrehung vornimmt. •

4.6 Hilbert-Transformation

219

Beispiel 4.63: Hilbert-Transformierte der Sinc-Funktion Es gilt: sin(2πf0 t) y(t) = sinc(2f0 t) = 2πf0 t

 ◦−•

Y (f ) =

1 2f0

0

für |f | ≤ f0 . (4.365) für |f | > f0

Hieraus folgt die Hilbert-Transformierte:  −j für 0 < f ≤ f0   2f0 j ˇ Y (f ) = Y (f ) · GQ (f ) = 2f für − f0 ≤ f < 0   0 0 für |f | > f0 und f = 0 • ◦

yˇ(t) = F−1 {Yˇ (f )} =  =

j   2f0

Z0

Z∞

Yˇ (f ) ej2πf t df

=

1 4πf0 t

(4.367)

−∞

ej2πf t df −

−f0



(4.366)

Zf0

  ej2πf t df 

(4.368)

0

  1 − cos(2πf0 t) . 1 − e−j2πf0 t − ej2πf0 t − 1 = 2πf0 t

(4.369)

Die Originalfunktion y(t) und die Hilbert-Transformierte yˇ(t) sind in Abb. 4.30 für f0 = 5 Hz zu sehen. • 1 0,5 0 −0,5 −1

−1

−0,5

0

0,5

1

Abbildung 4.30: Sinc-Funktion und ihre Hilbert-Transformierte.

Das Ausgangssignal des Quadraturfilters erhält man als Faltung des Eingangssignals mit der Impulsantwort: Z∞ yˇ(t) =

y(τ ) −∞

1 dτ = y(t) ∗ gQ (t) . π(t − τ )

(4.370)

4 Zeitkontinuierliche Systeme

220

Die Hilbert-Transformation ist somit eine Integraltransformation mit selbstreziprokem Kern (vgl. Abschnitt 2.2.1.2) und den Funktionen Θ(f ) = GQ (f ) = −j sign(f ) , Φ(f ) =

(4.371)

1 = j sign(f ) = Θ∗ (f ) . GQ (f )

(4.372)

Aus diesem Grund ist das Innenprodukt zweier Hilbert-Transformierter gleich dem Innenprodukt der Eingangssignale (vgl. Abschnitt 2.2.1.3): hˇ x(t), yˇ(t)it = hGQ (f )X(f ), GQ (f )Y (f )if Z∞ = |GQ (f )|2 X(f ) Y ∗ (f ) df = hx(t), y(t)it . | {z } −∞

(4.373) (4.374)

=1

Eine weitere wichtige Eigenschaft der Hilbert-Transformation wird im folgenden Satz formuliert. Satz 4.64: Reelles Signal und Hilbert-Transformierte Ein reelles Signal x(t) ist orthogonal zu seiner Hilbert-Transformierten: hx(t), x ˇ(t)it = 0 .

(4.375) •

Beweis 4.65 (Reelles Signal und Hilbert-Transformierte) Es ist hx(t), x ˇ(t)it =

Z∞



Z∞

x(t) x ˇ (t) dt = −∞ Z∞

= −∞

X(f ) G∗Q (f ) X ∗ (f ) df

(4.376)

−∞

|X(f )|2 j sign(f ) df = 0 .

(4.377)

Die Orthogonalität des Signals zu seiner Hilbert-Transformierten folgt somit aus dem Parseval’schen Theorem. Beispiel 4.66: Hilbert-Transformierte des Cosinussignals Die Hilbert-Transformierte von y(t) = cos(2πf0 t) ist gegeben durch yˇ(t) = sin(2πf0 t) .

(4.378)

Diese beiden reellen Signale sind nach Abschnitt 3.4 orthogonal zueinander.



Formt man aus der reellen Zeitfunktion y(t) durch Addition der mit der imaginären Einheit j multiplizierten Hilbert-Transformierten yˇ(t) ein Signal z(t), so heißt z(t) das zu y(t) gehörige analytische Signal.

4.6 Hilbert-Transformation

221

Definition 4.27 Analytisches Signal Das zu einer reellen Zeitfunktion y(t) gehörige analytische Signal erhält man, indem man zu y(t) die mit dem Faktor j gewichtete Hilbert-Transformierte addiert. Das zu y(t) zugehörige analytische Signal z(t) ist damit gegeben durch z(t) = y(t) + j yˇ(t) .

(4.379)

Nun soll das Fourier-Spektrum des analytischen Signals untersucht werden: Z(f ) = Y (f ) + j · Yˇ (f ) mit GQ (f ) = −j sign(f )   2 Y (f ) für f > 0 für f = 0 . = Y (f ) + Y (f ) · sign(f ) = Y (f )  0 für f < 0 = Y (f ) + j · Y (f ) · GQ (f )

(4.380) (4.381) (4.382)

Satz 4.67: Analytisches Signal Das analytische Signal besitzt keine negativen Frequenzanteile. Für positive Frequenzen stimmt sein Spektrum bis auf die Amplitude mit dem Spektrum der Urfunktion überein. • Dies soll anhand eines Beispiels verdeutlicht werden. Beispiel 4.68: Spektrum eines analytischen Signals Es ist gegeben: y(t) = cos(2πf0 t) .

(4.383)

Hieraus folgt das analytische Signal z(t) = cos(2πf0 t) + j sin(2πf0 t) = ej2πf0 t .

(4.384)

Die Fourier-Transformierten lauten: 1 (δ(f + f0 ) + δ(f − f0 )) , 2 1 j Z(f ) = (δ(f + f0 ) + δ(f − f0 )) + j · (δ(f + f0 ) − δ(f − f0 )) 2 2 = δ(f − f0 ) .

Y (f ) =

Dies stimmt mit dem Ergebnis aus (4.382) überein.

(4.385) (4.386) (4.387) •

Die Hilbert-Transformation und das analytische Signal finden Anwendung bei der im folgenden Beispiel behandelten Einseitenband-Modulation [Unb02].

4 Zeitkontinuierliche Systeme

222 Beispiel 4.69: Einseitenbandmodulation

In der Nachrichtentechnik sind viele Nutzsignale (z. B. Sprache oder Daten) Tiefpasssignale x(t) mit einer unteren Frequenz gleich oder nahe bei 0 Hz und einer oberen Frequenz von B. Handelt es sich dabei um reellwertige Signale, so ist ihr Betragsspektrum nach (3.220) symmetrisch; ihre Bandbreite beträgt 2B (Abb. 4.31(a)). Zur Übertragung über Funkkanäle müssen solche Signale mit einem Träger moduliert werden, wodurch Bandpasssignale entstehen. Wird ein reelles Tiefpasssignal x(t) mit einer komplexen Harmonischen moduliert, so entsteht ein Bandpasssignal der Bandbreite 2B (Abb. 4.31(b)). Dabei enthalten aufgrund von (3.219) das obere Band [f0 , f0 + B] und das untere Band [f0 − B, f0 ] die gleiche Information, sodass die Übertragung solcher Signale keine effiziente Nutzung des Spektrums erlaubt.

Abbildung 4.31: Einseitenbandmodulation.

Alternativ kann zuerst mit Hilfe der Hilbert-Transformation x ˇ(t) = H{x(t)} das analytische Tiefpasssignal z(t) = x(t) + j x ˇ(t)

(4.388)

erzeugt werden, das nur Spektralanteile bei nichtnegativen Frequenzen besitzt (Abb. 4.31(c)). Durch Modulation mit einer komplexen Harmonischen erhält man das komplexe Bandpasssignal y(t) = z(t) ej2πf0 t = [x(t) + j x ˇ(t)] [cos(2πf0 t) + j sin(2πf0 t)] = x(t) cos(2πf0 t) − x ˇ(t) sin(2πf0 t)

+ j [x(t) sin(2πf0 t) + x ˇ(t) cos(2πf0 t)] ,

(4.389) (4.390)

4.6 Hilbert-Transformation

223

dessen Real- und Imaginärteil mit der Hilbert-Transformation aus dem reellen Tiefpasssignal x(t) berechnet werden können. Bei Verwendung des analytischen Signals wird der Bandbreitenbedarf halbiert (Abb. 4.31(d)), wodurch eine höhere spektrale Effizienz erzielt wird. Im Frequenzbereich entspricht die Modulation einer Frequenzverschiebung: ˇ − f0 ) . Y (f ) = Z(f − f0 ) = X(f − f0 ) + j X(f

(4.391)

Der Imaginärteil des komplexen Bandpasssignals y(t) ist nach (4.390) gerade die Hilbert-Transformierte des Realteils: Im{y(t)} = H{Re{y(t)}} .

(4.392)

Es reicht also aus, das reelle Bandpasssignal Re{y(t)} zu übertragen, was einer Einseitenbandmodulation von x(t) entspricht (Abb. 4.31(e)). In Abb. 4.32 ist die Erzeugung des reellen Bandpasssignals als Signalflussplan dargestellt.

Abbildung 4.32: Einseitenbandmodulation: Erzeugung eines reellen Bandpasssignals.

Zur Demodulation wird das komplexe Bandpasssignal y(t) mit einer komplexen Harmonischen multipliziert, wobei nur der Realteil interessiert: x(t) = Re{z(t)} = Re{y(t) e−j2πf0 t }

= Re{y(t)} cos(2πf0 t) + H{Re{y(t)}} sin(2πf0 t) .

(4.393) (4.394)

Der zur Demodulation benötigte Imaginärteil Im{y(t)} = H{Re{y(t)}} kann mit Hilfe der Hilbert-Transformation berechnet werden; vgl. Abb. 4.33. Bei der Übertragung von Signalen können diese aufgrund von Laufzeiten phasenverschoben werden. Wir gehen davon aus, dass das Bandpasssignal einer festen Phasendrehung ϕ unterworfen werde. Dann steht am Eingang des Demodulators das phasenverschobene reelle Bandpasssignal Re{y(t) ejϕ } = Re{y(t)} cos(ϕ) − Im{y(t)} sin(ϕ) = x(t) cos(2πf0 t) cos(ϕ) − x ˇ(t) sin(2πf0 t) cos(ϕ)

− x(t) sin(2πf0 t) sin(ϕ) − x ˇ(t) cos(2πf0 t) sin(ϕ)

= x(t) cos(2πf0 t + ϕ) − x ˇ(t) sin(2πf0 t + ϕ)

(4.395) (4.396) (4.397)

4 Zeitkontinuierliche Systeme

224

Abbildung 4.33: Einseitenbanddemodulation.

an. Der dazugehörige Imaginärteil ist entsprechend Im{y(t) ejϕ } = Im{y(t)} cos(ϕ) + Re{y(t)} sin(ϕ)

(4.398)

= x(t) sin(2πf0 t) cos(ϕ) + x ˇ(t) cos(2πf0 t) cos(ϕ) + x(t) cos(2πf0 t) sin(ϕ) − x ˇ(t) sin(2πf0 t) sin(ϕ) = x(t) sin(2πf0 t + ϕ) + x ˇ(t) cos(2πf0 t + ϕ) .

(4.399) (4.400)

Bei der Demodulation erhält man aufgrund der Phasenverschiebung das Signal s(t) anstelle von x(t): s(t) = Re{y(t) ejϕ e−j2πf0 t } = Re{y(t) ejϕ } cos(2πf0 t) + Im{y(t) ejϕ } sin(j2πf0 t)

(4.401) (4.402)

= x(t) cos(2πf0 t + ϕ) cos(2πf0 t) − x ˇ(t) sin(2πf0 t + ϕ) cos(2πf0 t)

+ x(t) sin(2πf0 t + ϕ) sin(2πf0 t) + x ˇ(t) cos(2πf0 t + ϕ) sin(2πf0 t)

= x(t) cos(ϕ) − x ˇ(t) sin(ϕ) .

(4.403)

Das verzögerte, demodulierte Signal s(t) setzt sich aus dem ursprünglichen reellen Tiefpasssignal x(t) und dessen Hilbert-Transformierter x ˇ(t) zusammen. Für ϕ = π2 geht nur die Hilbert-Transformierte x ˇ(t) ein. Ohne Anwendung der Hilbert-Transformation würde ein Informationsverlust auftreten. Wenn das reelle Tiefpasssignal x(t) lediglich mit cos(2πf0 t) und sin(2πf0 t) moduliert und dann verzögert würde, so ergäbe sich die Demodulation s˜(t) = x(t) cos(2πf0 t + ϕ) cos(2πf0 t) + x(t) sin(2πf0 t + ϕ) sin(2πf0 t) = x(t) cos(ϕ) . Für ϕ =

π 2

wäre dann das demodulierte Signal s˜(t) = 0.

(4.404) •

4.7 Aufgaben

4.7

225

Aufgaben

Aufgabe 4.1: Systemeigenschaften (a) Untersuchen Sie die folgenden Systeme auf Linearität, Zeitinvarianz und Kausalität. Das Eingangssignal ist jeweils mit x(t), das Ausgangssignal mit y(t) bezeichnet. (1) y(t) = cos(x(t − 1)) , (2) y(t) = a x(t) − b

dy(t) , dt

t, x, y ∈ R a, b, t, x, y ∈ R

t+ T2

Z

x(τ ) dτ

(3) y(t) =

t, x, y, T ∈ R

t− T2

(4) y(t) = a t2 + x(t + 3) ,

a, t, x, y ∈ R

(b) Diskutieren Sie, ob die Systeme (1)–(4) BIBO-stabil sind und – wenn ja – unter welchen Bedingungen.

Aufgabe 4.2: Impulsantwort und Stabilität Geben Sie jeweils an, wann die folgenden Impulsantworten ein stabiles LTI-System charakterisieren: (a) g1 (t) = cos(t) σ(t) , (b) g2 (t) = eαt σ(t) ,

α ∈ R.

Aufgabe 4.3: Laplace-Transformation Berechnen Sie die Laplace-Transformierte von  y(t) =

 2 1 2t 7 −3t − e − e σ(t) 3 5 15

mit Hilfe Z∞ (a) des Laplace-Integrals Y (s) = 0−

(b) der Korrespondenztabelle.

y(t) e−st dt sowie

4 Zeitkontinuierliche Systeme

226

Aufgabe 4.4: Laplace-Rücktransformation, Partialbruchzerlegung Berechnen Sie mittels des Residuensatzes die kausale Zeitfunktion zu der LaplaceTransformierten s−4 X(s) = 3 . s + s2 − 6s Überprüfen Sie Ihr Ergebnis durch Partialbruchzerlegung von X(s). Aufgabe 4.5: Zeitkontinuierliche Systeme Ordnen Sie in den Abbildungen 4.34 und 4.35 den Pol-Nullstellen-Diagrammen (arabische Zahlen) die richtigen Impulsantworten (Großbuchstaben) und Amplitudengänge (römische Zahlen) zu.

Abbildung 4.34: Diagramme zu Aufgabe 4.5(a).

Aufgabe 4.6: Übertragungsfunktion eines zeitkontinuierlichen Systems Bestimmen Sie die Übertragungsfunktion G(s) des Systems mit der Impulsantwort  g(t) = 8t · e−2t − 4t3 · e−2t σ(t) und skizzieren Sie den Pol- und Nullstellenplan.

4.7 Aufgaben

227

0

10

101 102

Abbildung 4.35: Diagramme zu Aufgabe 4.5(b).

Aufgabe 4.7: Signalflussplan eines zeitkontinuierlichen Systems In Abbildung 4.36 ist der Signalflussplan eines Systems S1 mit a ∈ R gegeben.

Abbildung 4.36: Signalflussplan des Systems S1 .

(a) Bestimmen Sie aus dem Signalflussplan des Systems S1 dessen Differentialgleichung. (b) Bestimmen Sie die Übertragungsfunktion G1 (s) =

Y (s) X(s)

(c) Wie lauten die Pol- und Nullstellen des Systems S1 ? (d) Ist das System S1 stabil? (Begründung) (e) Geben Sie die Impulsantwort des Systems S1 an.

des Systems S1 .

4 Zeitkontinuierliche Systeme

228

In Abbildung 4.37 ist der Signalflussplan eines Systems S2 mit a, b ∈ R dargestellt.

Abbildung 4.37: Signalflussplan des Systems S2 .

(f) Bestimmen Sie die Übertragungsfunktion G2 (s) =

Y (s) X(s)

des Systems S2 .

(g) Wie lauten die Pol- und Nullstellen des Systems S2 ? (h) Ist das System S2 stabil? (Begründung) Aufgabe 4.8: Differentialgleichung eines zeitkontinuierlichen Systems Betrachten Sie ein zeitkontinuierliches, kausales LTI-System, welches bei dem Eingangssignal ye (t) und dem Ausgangssignal ya (t) durch die Differentialgleichung y¨a (t) + 5y˙ a (t) + 4ya (t) = ye (t) beschrieben ist. (a) Berechnen Sie jeweils eine Zustandsraumdarstellung dieses Systems, indem Sie 1) die Herleitung in Abschnitt 4.2.2 nachvollziehen, 2) die Zustandsgrößen z1 (t) = ya (t), z2 (t) = y˙ a (t) verwenden. (b) Geben Sie mittels der Differentialgleichung für das System einen Signalflussplan an. (c) Berechnen Sie aus einer der Zustandsraumdarstellungen nach (a) die Übertragungsfunktion. Nehmen Sie hierfür verschwindende Anfangswerte an. (d) Wie lautet die Impulsantwort des Systems? (e) Berechnen Sie über das Faltungsintegral die Reaktion des Systems auf das Eingangssignal ye (t) = e−t σ(t). (f) Berechnen Sie die Sprungantwort des Systems aus der Impulsantwort. Aufgabe 4.9: Minimalphasen- und Allpassanteil Zerlegen Sie die Übertragungsfunktion G(s) =

(s + 1) (s − 2) (s − 3) (s2 + 2s + 2) (s + 5)

in ihren Minimalphasen- und ihren Allpassanteil. Ist der Allpassanteil stabil? Kann diese Aussage verallgemeinert werden? (Begründung!)

4.7 Aufgaben

229

Aufgabe 4.10: RLC-Schaltung Gegeben sei die in Abbildung 4.38 skizzierte Schaltung mit R, L, C ∈ R+ . Zu Beginn der Betrachtung befindet sich das System in Ruhe.

Abbildung 4.38: RLC-Schaltung.

(a) Berechnen Sie mit Hilfe der Zustandsgrößen z1 (t) und z2 (t) die Differentialgleichungen, die das System charakterisieren. (b) Berechnen Sie die Übertragungsfunktion G(s). Zeichnen Sie den Signalflussplan in ARMA-Form. (c) Ist das System stabil? Berechnen Sie den stationären Endwert von g(t) für t → ∞.

(d) Berechnen Sie die Sprungantwort des Systems.

(e) Für welche Werte der Parameter R, L und C enthält die Sprungantwort Schwingungen? (f) Skizzieren Sie den Amplitudengang des Systems für die Parameter R = 100 Ω, L = 100 · 10−3 H und C = 300 · 10−6 F. Aufgabe 4.11: Pol-/Nullstellendiagramm Von einem zeitkontinuierlichen, reellen LTI-System G(s) seien folgende Eigenschaften bekannt: 1. Es existieren insgesamt fünf Pol-/Nullstellen (zusammen). 2. lim |G(s)| = 0. s→∞

3. Das System ist stabil. 4. Der Betrag des Realteils aller Polstellen ist jeweils 2. 5. Der Imaginärteil einer Polstelle ist 1. 6. Das System ist minimalphasig. 7. |G(j)| = 0.

4 Zeitkontinuierliche Systeme

230 (a) Skizzieren Sie das Pol-/Nullstellendiagramm.

(b) Begründen Sie die Lage der Pol- und Nullstellen. Nutzen Sie dafür die Nummerierung der oben genannten Eigenschaften. (c) Geben Sie die Übertragungsfunktion G(s) an.

Teil III

Zeitdiskretisierung

5

Zeitdiskrete Signale

In der Digitaltechnik ist es nicht möglich, physikalische Signale kontinuierlich zu bearbeiten, wie dies in der Analogtechnik der Fall ist. Digitale Komponenten werden im Allgemeinen getaktet, d. h. es werden Zeitmarken ausgegeben, zu denen dann jeweils ein Arbeitsschritt pro Takt ausgeführt wird. Um physikalische Signale mittels digitaler Technik zu erfassen und zu bearbeiten, müssen die Signale abgetastet bzw. zeitdiskretisiert werden, d. h. die Werte der Signale werden nur zu bestimmten Zeitpunkten erfasst und bearbeitet. In den meisten Fällen liegen diese Zeitpunkte äquidistant.

5.1

Grundlagen

5.1.1

Zeitdiskretisierung

Ein kontinuierliches Signal zeichnet sich dadurch aus, dass man zu jedem beliebigen Zeitpunkt den Signalwert angeben kann. Bei physikalisch realisierbaren Signalen sind diese Signalwertfunktionen stetig. Bei der Zeitdiskretisierung werden nur die Signalwerte zu äquidistanten Zeitpunkten erfasst, die Signalwerte zwischen diesen Zeitpunkten gehen verloren. Unter bestimmten, im Abtasttheorem beschriebenen Voraussetzungen kann man die Signalwerte zwischen den Zeitpunkten wieder vollständig rekonstruieren. Zur mathematischen Darstellung zeitdiskreter Signale gibt es hauptsächlich zwei Ansätze. Bei dem ersten Ansatz wird das zeitdiskrete Signal als Folge yn = y[n] = y(n tA ) ,

n ∈ Z,

(5.1)

angegeben, deren Folgenglieder den Signalwerten zu den Abtastzeitpunkten n tA entsprechen. Bei dem zweiten Ansatz wird das zeitdiskrete Signal durch das Produkt des zeitkontinuierlichen Signals mit einer Impulsreihe y∗ (t) = y(t) ·

∞ X n=−∞

δ(t − n tA ) =

∞ X n=−∞

yn δ(t − n tA )

(5.2)

beschrieben, bei der die Signalwerte in den Abtastzeitpunkten durch Impulse der „Höhe“ yn = y(n tA ) und das Signal zwischen den Abtastzeitpunkten durch den Wert 0 dargestellt wird. Dies ist exemplarisch in Abb. 5.1 dargestellt. Welche Modellierung zum Einsatz kommt, wird aus dem Zusammenhang klar. So wird bei Berechnungen mit Summen meist die Modellierung als Folge verwendet, bei

5 Zeitdiskrete Signale

234 6y∗ (t) 6 6

6 6

6 6 ?

6

?

666

6

66

6 ?

??

t

?

?

? ?

?

?

?

? Abbildung 5.1: Darstellung eines abgetasteten Signals als Impulsreihe.

Berechnungen mit Integralen die Modellierung als Impulsreihe. Hier macht man sich die besonderen Eigenschaften des Dirac-Impulses bei Integralen gemäß (3.272) zunutze. Diese Eigenschaften werden bei der Herleitung der Fourier-Transformation zeitdiskreter Signale genutzt. Die Zeitdauer zwischen zwei Abtastpunkten wird als Abtastzeit tA bezeichnet. Der Kehrwert fA =

1 tA

(5.3)

heißt Abtastfrequenz. Es stellt sich die Frage, in welchen Größenordnungen die Abtastzeit tA und die Abtastfrequenz fA realer Systeme liegen. Für die Abtastzeit tA gibt es nach oben keine technische Grenze, da man zwischen zwei Abtastzeitpunkten fast beliebig lange warten kann. Dann enthielte das abgetastete Signal aber keine relevanten Informationen mehr. Für die minimale Abtastzeit tA bzw. die maximale Abtastfrequenz fA gibt es jedoch technische Grenzen. Da die Abtastwerte meist mit einem Mikrocontroller oder mit Signalprozessoren verarbeitet werden, bestimmen diese durch ihre Verarbeitungsgeschwindigkeit die maximale Abtastfrequenz. Tabelle 5.1 gibt Beispiele von Abtastfrequenzen in technischen Systemen an. Tabelle 5.1: Typische Abtastfrequenzen in technischen Systemen.

Regelkreise in der Verfahrenstechnik CD-Audio-Aufzeichnung DVD-Audio-Aufzeichnung Verarbeitung mittels Mikrocontroller Verarbeitung mittels Signalprozessor Speicheroszilloskop

Abtastfrequenz 1–10 Hz 44,1 kHz bis 192 kHz bis 200 MHz bis 10 GHz bis 100 GHz

5.1 Grundlagen

5.1.2

235

Abtasttheorem

Bei der Abtastung gehen die Signalwerte zwischen den Abtastzeitpunkten verloren. Unter bestimmten Bedingungen kann man die verloren gegangenen Signalwerte vollständig rekonstruieren – angenommen das Signal ändere sich zwischen den Abtastzeitpunkten nicht zu schnell. Diese Bedingungen nennt das Abtasttheorem. Satz 5.1: Abtasttheorem Das Signal y(t) sei bandbegrenzt, d. h. für seine Fourier-Transformierte Y (f ) gelte mit B > 0 Y (f ) = 0

|f | ≥ B .

für

(5.4)

Dann ist die Funktion y(t) zu jedem beliebigen Zeitpunkt t durch die Werte n ∈ Z,

yn = y(n tA ) ,

(5.5)

festgelegt, die sie in zeitlichen Abständen tA =

1 , 2B

fA = 2B ,

(5.6)

annimmt. Mit Hilfe einer Bandbegrenzung des abgetasteten Signals (5.2) erhält man das rekonstruierte Signal yˆ(t) = =

∞ X n=−∞ ∞ X n=−∞

yn

sin(πfA (t − n tA )) πfA (t − n tA )

yn sinc(fA (t − n tA )) .

(5.7) (5.8)

Die Summe rekonstruiert das im Zeitbereich stetige Signal y(t) vollständig auch zwischen den diskreten Werten yn , wenn die Abtastzeit tA ≤ 1/(2B) und somit die Abtastfrequenz fA ≥ 2B ist. • Beweis 5.2 (Abtasttheorem) Das zeitkontinuierliche Signal y(t) geht bei zeitäquidistanter Abtastung in das Signal y∗ (t) über. Dies geschieht durch Multiplikation mit einer Impulsreihe: y∗ (t) = y(t) ·

∞ X n=−∞

δ(t − n tA ) .

(5.9)

Die Fourier-Transformierte Y∗ (f ) des abgetasteten Signals y∗ (t) wird durch Faltung im Frequenzbereich als ( ∞ ) X Y∗ (f ) = Y (f ) ∗ F δ(t − n tA ) (5.10) n=−∞

5 Zeitdiskrete Signale

236

beschrieben. Unter Verwendung der Poisson’schen Summenformel (3.280) folgt ( F

∞ X

) δ(t − n tA )

n=−∞

) ∞ ∞ 1 X n j2π tk t o 1 X j2π tk t A A = (5.11) =F e F e tA tA k=−∞ k=−∞   ∞ k 1 X δ f− . (5.12) = tA tA (

k=−∞

Setzt man dieses Resultat in obige Formel für Y∗ (f ) ein, so ergibt sich   ∞ 1 X k Y∗ (f ) = Y (f ) ∗ · δ f− tA tA

(5.13)

k=−∞

Z∞ Y (ν)

= −∞

=

  ∞ 1 X k · δ f −ν− dν tA tA

(5.14)

k=−∞

  ∞ X k 1 Y f− · . tA tA

(5.15)

k=−∞

Das ursprüngliche Spektrum Y (f ) wird mit fA = 1/tA skaliert und in Abständen von fA periodisch wiederholt, wie dies in Abb. 5.2 für fA = 4 Hz schematisch dargestellt ist. 1,5

1

0,5

0

−6

−4

−2

0

2

4

6

Abbildung 5.2: Schematische Darstellung der Wiederholung des Spektrums bei der Abtastung für den Fall fA = 4 Hz.

Damit eine eindeutige Rekonstruktion des Ursprungsspektrums möglich ist, muss die höchste im Signal vorkommende Frequenz kleiner als 1/(2tA ) sein, damit sich die Spektren nicht überlappen. Insbesondere muss bereits an der Bandgrenze B die Bedingung Y (B) = 0 erfüllt sein. Insgesamt folgt also: Die höchste im kontinuierlichen Signal vorkommende Frequenz fmax < B muss die halbe Abtastfrequenz unterschreiten, wenn das abgetastete Signal vollständig

5.1 Grundlagen

237

rekonstruiert werden soll: fmax < B ≤

fA . 2

(5.16)

Um aus dem Spektrum des abgetasteten Signals Y∗ (f ) das Spektrum des zeitkontinuierlichen Signals Y (f ) zu rekonstruieren, muss man es mit dem gewichteten symmetrischen Rechteckfenster tA · r1/tA (f ) = tA · rfA (f ) multiplizieren. Auf diese Weise wird die Periodizität des Spektrums aufgehoben. Man erhält das Originalspektrum. Eine Multiplikation im Frequenzbereich entspricht einer Faltung im Zeitbereich, womit für die rekonstruierte Fourier-Transformierte des abgetasteten Signals Yˆ (f ) = Y∗ (f ) · tA rfA (f )

•−◦

yˆ(t) = y∗ (t) ∗ F−1 {tA rfA (f )}

(5.17)

folgt. Durch den Vorfaktor tA wird das Rechteckfenster auf die Fläche eins normiert. Unter Beachtung von F−1 {tA rfA (f )} =

sin(πfA t) = sinc(fA t) , πfA t

fA =

1 , tA

(5.18)

wird daraus yˆ(t) = =

∞ X n=−∞ ∞ X n=−∞

y(ntA ) δ(t − ntA ) ∗ sinc(fA t)

(5.19)

y(ntA ) · sinc(fA (t − ntA )) .

(5.20)

Dies beweist die Rekonstruktionsgleichung (5.8). Abbildung 5.3 veranschaulicht das Abtasttheorem. Das bandbegrenzte Signal y(t) wird durch Multiplikation mit einer Impulsreihe abgetastet und ergibt damit das Abtastsignal y∗ (t). Nach dem Faltungssatz der Fourier-Transformation korrespondiert die Multiplikation von y(t) mit der Impulsreihe mit einer Faltung des Spektrums Y (f ) mit der Fourier-Transformierten der Impulsreihe (d. h. einer weiteren Impulsreihe) im Frequenzbereich, was somit zu einer periodischen Fortsetzung des Spektrums führt. Die Rekonstruktion basiert auf einer Unterdrückung der periodischen Fortsetzungen des Spektrums durch Multiplikation mit dem idealen Tiefpass tA rfA (f ). Im Zeitbereich entspricht diese Filterung einer Faltung mit einer Sinc-Funktion und ergibt bei Einhaltung der Abtastbedingung fA ≥ 2B das perfekt rekonstruierte Signal yˆ(t). Wird die Abtastbedingung jedoch verletzt, so kommt es wegen der zu niedrigen Abtastfrequenz fA zu einer Überlappung der Spektren in Y∗ (f ). Das ursprüngliche Signal lässt sich dann nicht mehr rekonstruieren. Die ideale Rekonstruktion entspricht einer Entwicklung der Funktion y(t) in die zeitverschobenen Sinc-Funktionen. Bei Einhaltung des Abtasttheorems bilden diese ein

238

5 Zeitdiskrete Signale

Abbildung 5.3: Veranschaulichung des Abtasttheorems.

vollständiges Funktionensystem, das den Raum der quadratisch integrierbaren Funktionen aufspannt. Die Koeffizienten sind gerade die Abtastwerte y(n tA ). Bei Einhaltung des Abtasttheorems ändert sich die Funktion zwischen den Abtastwerten hinreichend langsam, so dass die Funktion durch diese Abtastwerte charakterisiert werden kann. Die Rekonstruktion konvergiert gegen die zeitkontinuierliche Funktion y(t). Somit lässt sich also in diesem Fall die Funktion eindeutig aus den Abtastwerten rekonstruieren. Abbildung 5.4 zeigt exemplarisch ein kontinuierliches Signal y(t), das bei Einhaltung des Abtasttheorems abgetastete Signal y∗ (t) und das daraus über eine Überlagerung gewichteter und verschobener Sinc-Funktionen rekonstruierte Signal yˆ(t). Man er-

5.1 Grundlagen

239

6

6

5

5

4

4

3

3

2

2

1

1

0

0

1

2

3

4

5

0

1

2

3

4

5

6

6

5

5

4

4

3

3

2 1

2

0

1 0

0

−1 2

2,5

3

2

2,5

3

Abbildung 5.4: Beispiel für eine gelungene Rekonstruktion eines abgetasteten Signals y∗ (t) bei Einhaltung des Abtasttheorems: ( ) Originalsignal y(t); ( ) rekonstruiertes Signal yˆ(t).

kennt, dass die Rekonstruktion nicht perfekt ist, da die unendliche Summe in (5.8) abgebrochen wurde, aber sie ist trotzdem für viele Anwendungen hinreichend genau. Anders verhält es sich mit der Rekonstruktion in Abb. 5.5. Hier wurde eine Abtastfrequenz gewählt, die deutlich unter der vom Abtasttheorem geforderten Frequenz liegt. Als Konsequenz ist die Rekonstruktion des ursprünglichen Signals unmöglich. Die Entwicklung in die Sinc-Funktionen (5.8), wie sie laut Abtasttheorem vorgesehen ist, konvergiert in diesem Fall nicht gegen die Ursprungsfunktion. Bemerkung 5.3 1. Das Abtasttheorem gilt natürlich auch, wenn die Abtastwerte im zeitlichen Abstand t0A < tA genommen werden (d. h. bei sogenannter Überabtastung). 2. Für die Gültigkeit des Abtasttheorems kommt es nicht auf die absolute Lage der Abtastzeitpunkte an. Wichtig ist nur, dass sie äquidistant sind und dass ihr Abstand tA weniger als 1/(2B) beträgt. 3. Für praktische Anwendungen ist zu beachten, dass das Abtasttheorem eine theoretische Aussage liefert. Daher müssen die Fehler abgeschätzt werden,

5 Zeitdiskrete Signale

240 6

6

5

5

4

4

3

3

2

2

1

1

0

0

1

2

3

4

5

0

1

2

3

4

5

6

6

5

5

4

4

3

3

2 1

2

0

1 0

0

−1 2

2,5

3

2

2,5

3

Abbildung 5.5: Beispiel für eine misslungene Rekonstruktion eines abgetasteten Signals y∗ (t) ) Originalsignal y(t); ( ) rekonstruiertes Signal yˆ(t). bei Verletzung des Abtasttheorems: (

die durch Abweichungen von den Voraussetzungen des Satzes entstehen. Die im Wesentlichen zu beachtenden Fehler sind: • Der Quantisierungsfehler, da sich aufgrund der endlichen Ausgabelänge eines Analog-Digital-Umsetzers die digitalen Amplitudenwerte von den exakten, stetigen Signalwerten unterscheiden. Dies wird z. B. in [Pue15] untersucht. • Der Fehler durch das benutzte endliche Beobachtungsfenster T0 , da es in jeder realen Anwendung nur gelingt, einen zeitlich begrenzten Ausschnitt der Signalfunktion zu beobachten. Dieser sogenannte Leckeffekt wird in Abschnitt 5.5.6 ausführlich behandelt. • Fehler durch spektrale Überlappungen, auch Aliasing genannt, da vollständig bandbegrenzte Signale in der Praxis nicht existieren. Dies wird in Abschnitt 5.1.3 untersucht. • Fehler durch den Jitter des Abtastzeitpunktes, da sich der wahre Abtastzeitpunkt vom theoretisch richtigen Abtastzeitpunkt unterscheidet. Dies wird ebenfalls in [Pue15] behandelt. •

5.1 Grundlagen

5.1.3

241

Aliasing

Im Beweis des Abtasttheorems wurde das Spektrum Y∗ (f ) des abgetasteten Signals y∗ (t) als Summe der um ganzzahlige Vielfache der Abtastfrequenz fA verschobenen Spektren Y (f ) hergeleitet:

Y∗ (f ) = fA ·

∞ X k=−∞

Y (f − k fA ) .

(5.21)

Erstreckt sich das Spektrum Y (f ) über den gesamten Frequenzbereich, so kommt es zu spektralen Überlappungen, die als Aliasing ["eIli@siN] oder Bandüberlappungsfehler bezeichnet werden und die in Abb. 5.6 dargestellt sind. Der Name ist vom englischen Begriff alias abgeleitet.

Abbildung 5.6: Spektrale Überlappung bei nicht bandbegrenztem Signal.

Ist das Spektrum Y (f ) bandbegrenzt, so kann es bei der Abtastung trotzdem zu einer Überlappung der Spektren kommen, und zwar dann, wenn die Abtastfrequenz fA kleiner als das Doppelte der höchsten im Signal vorkommenden Frequenz ist. In Abb. 5.7 erkennt man im unteren rechten Bild diesen Fall. Im linken Bild ist die Abtastfrequenz so hoch, dass es zu keiner spektralen Überlappung kommt. Im rechten Fall tritt ein Bandüberlappungsfehler (Aliasing) auf. Hier ist die Abtastfrequenz zu klein. Sind die Voraussetzungen des Abtasttheorems nicht erfüllt, ist also das Spektrum des abzutastenden Signals y(t) nicht bandbegrenzt oder die Abtastfrequenz fA kleiner als die doppelte Maximalfrequenz im Signal y(t), so kommt es zu spektraler Überlappung. Eine eindeutige Zuordnung der Spektralanteile ist nicht mehr möglich. Wie im folgenden Beispiel gezeigt, können die Auswirkungen von Aliasing auch im Zeitbereich festgestellt werden.

5 Zeitdiskrete Signale

242

Abbildung 5.7: Spektrale Überlappung bei bandbegrenztem Signal.

Beispiel 5.4: Aliasing bei einem periodischen Signal Ein zeitkontinuierliches Signal bestehend aus zwei harmonischen Schwingungen der Frequenzen 50 Hz und 250 Hz, y(t) = y1 (t) + y2 (t) = sin (2π · 50 Hz · t) + sin (2π · 250 Hz · t) ,

(5.22)

soll mit einer Abtastfrequenz von fA = 200 Hz und somit einer Abtastzeit von tA =

1 = 0,005 s fA

abgetastet werden. Die Abtastwerte lauten:     50 Hz 250 Hz yn = y(ntA ) = sin 2π n + sin 2π n 200 Hz 200 Hz       1 1 n = sin 2π n + sin 2π 1 + 4 4 π  π  π  n + sin n + 2πn = 2 · sin n . = sin 2 2 2

(5.23)

(5.24) (5.25) (5.26)

Die beiden harmonischen Schwingungen können im abgetasteten Signal offensichtlich nicht mehr unterschieden werden, da sich ihre Spektralanteile überlappen (vgl. Abb. 5.8). Aufgrund der zu geringen Abtastfrequenz wirkt die Schwingung bei f2 = 250 Hz wie eine zweite Schwingung bei 50 Hz. • Zur Verhinderung spektraler Überlappung gibt es zwei Möglichkeiten: 1. Bei nicht bandbegrenzten Signalen muss man vor der Abtastung mit Hilfe eines Tiefpasses Frequenzanteile ab der halben Abtastfrequenz vollständig eliminieren. In der Praxis muss zumindest sichergestellt werden, dass die Spektralanteile, die Aliasing erzeugen, mit einem Filter auf eine vernachlässigbare Stärke gedämpft worden sind.

5.1 Grundlagen

243

1 0,5 0 −0,5 −1

0

0,01

0,02

0,03

0,04

(a) Signale y1 (t), y2 (t) und ihre Abtastwerte

−300

−100

0

100

300

(b) Betragsspektrum des Signals y∗ (t)

Abbildung 5.8: Aliasing bei einem periodischen Signal: (links) Abtastwerte einer 50 Hz- und einer 250 Hz-Schwingung y1 (t) ( ) bzw. y2 (t) ( ) bei einer Abtastfrequenz von 200 Hz; (rechts) Betragsspektrum des Summensignals y∗ (t).

2. Bei bandbegrenzten Signalen muss die Abtastfrequenz fA größer als das Doppelte der höchsten im Signal vorkommenden Frequenz sein. Kann man die Abtastfrequenz fA nicht beliebig erhöhen bzw. ist die Abtastfrequenz festgelegt, so muss man wie unter Punkt 1 mit Hilfe eines Tiefpasses die Aliasing erzeugenden Spektralanteile unterdrücken. An Bandbegrenzungsfilter (sog. Anti-Aliasing-Filter) sind natürlich hohe Forderungen gestellt. Im Spektralbereich (−fA /2, fA /2) bis zur halben Abtastfrequenz, der als Nyquist-Band bezeichnet wird, darf das Signal nicht verändert werden. Oberhalb der halben Abtastfrequenz müssen alle Spektralanteile vollständig verschwinden. Dies ist nur mit Hilfe eines idealen Tiefpasses mit der Grenzfrequenz fA /2 möglich. Ein idealer Tiefpass ist in der realen Welt nicht zu verwirklichen. Man muss hier mit sehr steilflankigen Filtern auskommen, vgl. Abschnitt 6.7.4.

5.1.4

Rekonstruktion

In der Praxis interessiert nicht nur die Abtastung, also der Übergang vom zeitkontinuierlichen zum zeitdiskreten Signal, sondern auch die Rekonstruktion, d. h. der Übergang vom zeitdiskreten zum zeitkontinuierlichen Signal (z. B. nach einer digitalen Verarbeitung des Signals). Hierzu werden im Folgenden einige Methoden dargestellt. Systemtheoretisch wird die Rekonstruktion als Faltung der Impulsreihe y∗ (t) =

∞ X n=−∞

yn · δ(t − n tA )

(5.27)

mit der Impulsantwort g(t) eines Interpolationsfilters bzw. Rekonstruktionsfilters beschrieben: yˆ(t) = y∗ (t) ∗ g(t) .

(5.28)

5 Zeitdiskrete Signale

244

Dies entspricht im Frequenzbereich einer Multiplikation von Y∗ (f ) mit dem jeweiligen Frequenzgang G(f ) = F{g(t)} des Rekonstruktionsfilters.

5.1.4.1

Idealer Tiefpass

Das Abtasttheorem besagt, dass bei Abtastung von y(t) mit der Abtastfrequenz fA das Signal y(t) durch y(t) =

∞ X n=−∞

yn

∞ X sin(πfA (t − ntA )) yn sinc(fA (t − ntA )) = πfA (t − ntA ) n=−∞

(5.29)

vollständig rekonstruiert werden kann, wenn die Bedingungen des Abtasttheorems eingehalten worden sind. Die Rekonstruktion entspricht der Multiplikation mit einem symmetrischen Rechteckfenster im Frequenzbereich, das nur die Frequenzanteile des Nyquist-Bandes (−fA /2, fA /2) durchlässt, d. h. durch die Nyquist-Frequenz fN = f2A nach oben und durch die negative Nyquist-Frequenz nach unten begrenzt wird. Das Rechteckfenster macht somit die durch den Abtastvorgang entstandene Periodizität des Spektrums Y∗ (f ) rückgängig. Diese Rekonstruktionsmethode wird idealer Tiefpass oder auch Cardinal Hold genannt. Beim idealen Tiefpass hat die Impulsantwort g(t) des Rekonstruktionsfilters die Form: g(t) =

sin(πfA t) = sinc(fA t) . πfA t

(5.30)

Der Frequenzgang ist rechteckig mit der halben Abtastfrequenz als Grenzfrequenz. Der ideale Tiefpass hat im Frequenzbereich unendlich steile Flanken. Man stellt weiterhin fest, dass bei der Rekonstruktion zu jedem Zeitpunkt alle Abtastwerte benötigt werden und diese Methode somit akausal ist; sie ist deshalb in der Praxis nicht durchführbar. Man muss daher eine andere Möglichkeit finden, durch geschickte Interpolation der Abtastwerte yn das zeitkontinuierliche Signal y(t) zu reproduzieren. Realisierbare Rekonstruktionsfilter stellen somit eine Näherung des idealen Tiefpassfilters dar. Die gebräuchlichsten werden in den nächsten Abschnitten behandelt.

5.1.4.2

Halteglied 0. Ordnung

Das Halteglied 0. Ordnung (zero-order hold) ist das einfachste realisierbare Rekonstruktionsfilter. Es wird auch box-car circuit, sample-and-hold oder data clamp genannt. Dabei wird angenommen, dass die Abtastzeitpunkte so dicht liegen, dass sich das Signal zwischen den Abtastwerten nur unwesentlich ändert. Zwischen den Abtastzeitpunkten hält das Halteglied 0. Ordnung den letzten Abtastwert als Funktionswert und springt an den Abtastzeitpunkten jeweils auf den neuen Abtastwert. Aus dem gewichteten Impulszug y∗ (t) entsteht eine Treppenfunktion, welche das ursprüngliche Signal grob annähert. Dies ist in Abb. 5.9 exemplarisch zu erkennen. Die Impulsantwort des Halteglieds 0. Ordnung  1 für 0 ≤ t < tA g(t) = 0 sonst

(5.31)

5.1 Grundlagen

245

Abbildung 5.9: Rekonstruktion des Zeitverlaufs mit dem Halteglied 0. Ordnung. 2

1

1,5

0,8 0,6

1

0,4

0,5 0

0,2 0 0

0,2

0,4

0,6

0,8

1

−5

0

5

Abbildung 5.10: Impulsantwort und Amplitudengang des Halteglieds 0. Ordnung für tA = 1 s.

ist in Abb. 5.10 links zu sehen. Der zugehörige Frequenzgang G(f ) = tA ·

sin(πf tA ) −jπf tA ·e πf tA

(5.32)

(Betrag siehe Abb. 5.10 rechts) zeigt, dass erstens eine starke Verzerrung innerhalb des Nyquist-Bandes stattfindet und dass zweitens unerwünschte Frequenzanteile oberhalb der Nyquist-Frequenz vorhanden sind (vgl. Abb. 5.11).

5.1.4.3

Linearer Interpolator

Als weitere einfache Rekonstruktionsmöglichkeit bietet es sich an, die Abtastwerte mittels Geradensegmenten zu verbinden (Abb. 5.12). Dies entspricht der Trapezregel. Die Impulsantwort des Rekonstruktionsfilters lässt sich wie folgt angeben:   1+ g(t) = 1 −   0

t tA t tA

für −tA ≤ t < 0 für 0 ≤ t < tA

sonst

.

(5.33)

5 Zeitdiskrete Signale

246

Abbildung 5.11: Spektralverzerrung durch Verwendung des Halteglieds 0. Ordnung.

Abbildung 5.12: Rekonstruktion des Zeitverlaufs mit dem linearen Interpolator.

Der entsprechende Frequenzgang ist: G(f ) = tA sinc2 (f tA ) = tA

sin2 (πf tA ) . (πf tA )2

(5.34)

Bei der Betrachtung von Abb. 5.13 wird deutlich, dass dieses Rekonstruktionsfilter im Frequenzbereich eine bessere Konvergenz als das Halteglied 0. Ordnung aufweist. Der rekonstruierte Verlauf ist zwar im Vergleich zum Halteglied 0. Ordnung besser, aber man erkennt sofort, dass dieses Rekonstruktionsfilter im Gegensatz dazu nicht kausal ist, da man zur Rekonstruktion bereits den nächsten Abtastwert benötigt. Dieses Problem kann man dadurch umgehen, dass man die Ausgabe um einen Abtastschritt verzögert. Im n-ten Intervall wird dann nicht die Verbindungsgerade zwischen

5.1 Grundlagen

247

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 −1

−0,5

0

0,5

1

−4

−2

0

2

4

Abbildung 5.13: Impulsantwort und Amplitudengang des linearen Interpolators für tA = 1 s.

den Abtastwerten yn und yn+1 ausgegeben, sondern die Verbindungsgerade zwischen den Abtastwerten yn−1 und yn . Das kann man immer genau dann tun, wenn die dadurch entstehende Totzeit tA unkritisch ist. So stellt es z. B. bei der Rekonstruktion der Audiodaten auf einer CD kein Problem dar, wenn die zeitkontinuierlichen Toninformationen um tA =

1 1 = = 22,7 µs fA 44,1 kHz

(5.35)

später vom CD-Spieler geliefert werden.

5.1.4.4

Rekonstruktion über die Fourier-Reihe

Das im Zeitbereich abgetastete Signal y∗ (t) soll mit Hilfe der Fourier-Reihe rekonstruiert werden. Die N zeitdiskreten Werte sind n=−

yn = y(n tA ) ,

N N ,..., − 1, 2 2

(5.36)

wobei wir der Einfachheit halber von einem geraden N ausgehen. 1. Man setzt eine Fourier-Reihe mit endlich vielen Koeffizienten an, was auf N 2

yˆ(t) =

−1 X

Yk ej2πk · ∆f · t ,

k=− N 2

∆f =

1 , N tA

(5.37)

führt. Die Spektralfunktion wird damit nur in dem Grundband mit den Werten Y− N , . . . , Y N −1 2

2

(5.38)

berücksichtigt. Dadurch sind periodische Wiederholungen im Spektralbereich mit einem idealen Rechteckfilter beseitigt worden. Die untere Grundfrequenz ist die Beobachtungsfrequenz ∆f = 1/(N tA ).

5 Zeitdiskrete Signale

248

2. Die Koeffizienten in obiger Darstellung berechnen sich, wie man durch einen Vergleich mit der Definitionsgleichung (3.175) und der später erarbeiteten Gleichung (5.144) für die diskrete Fourier-Transformation (DFT) erkennt, über Yk =

N −1 n 1 X yn e−j2π N k , N n=0

k=−

N N ,..., − 1. 2 2

(5.39)

Dies ähnelt bis auf den Vorfaktor gerade der diskreten Fourier-Transformation, die in Abschnitt 5.5.1 definiert wird. Aufgrund des diskreten Spektrums wird die Zeitfunktion periodisch fortgesetzt. Die Rekonstruktion mit der Fourier-Reihe liefert immer dann hervorragende Ergebnisse, wenn die periodische Fortsetzung im Zeitbereich keine Störungen über das Gibbs’sche Phänomen einbringt. Dazu müssen die Sprünge an den Bereichsgrenzen klein sein. Die Rekonstruktion ist allerdings nicht schrittweise in Echtzeit durchführbar. Beispiel 5.5: Rekonstruktion eines Signals mittels der Fourier-Reihe In diesem Beispiel wird die Funktion y(t) = e−t · (1 − cos(2π · 2 Hz · t)) ,

0 ≤ t ≤ 2,5 s ,

(5.40)

erst mit tA = 0,25 s abgetastet und anschließend mit Hilfe der Fourier-Reihe rekonstruiert. Das Resultat dieser Rekonstruktion ist in Abb. 5.14 zu sehen. Obwohl das Abtasttheorem gerade noch als Grenzfall erfüllt ist, erhält man eine gute Rekonstruktion des Signals. • 2

2

1,5

1,5

1

1

0,5

0,5

0

0

−0,5

0

0,5

1

1,5

2

2,5

−0,5

0

0,5

1

1,5

2

2,5

Abbildung 5.14: Beispiel der Rekonstruktion einer Funktion mittels der Fourier-Reihe.

5.2

Diskrete Zufallsvariablen

In der Digitaltechnik liefern stochastische Prozesse keinen stetigen Fluss von Zufallswerten x, sondern geben diese zu äquidistanten Zeitpunkten aus, d. h. der Zeitbereich

5.3 Fourier-Transformation zeitdiskreter Signale

249

T aus der Definition 3.16 ist Z oder eine endliche Teilmenge davon. In diesem Fall spricht man von einem zeitdiskreten stochastischen Prozess. Weiterhin kann ein digitales Signal nur endlich viele, insbesondere also maximal abzählbar viele Werte xi , i ∈ I, I ⊆ Z, annehmen. Eine Zufallsvariable, die eine solche Eigenschaft aufweist, wird als diskrete Zufallsvariable bezeichnet. In diesem Fall geht die Wahrscheinlichkeitsdichte in eine diskrete Wahrscheinlichkeitsverteilung über: X

mit

(p(xi ))i∈I

p(xi ) = 1 .

(5.41)

i∈I

Die Verteilungsfunktion P (x ≤ x) =

X

p(xi )

(5.42)

xi ≤x

gibt dabei die Wahrscheinlichkeit an, dass das stochastische Signal x einen Wert kleiner gleich x besitzt. Entsprechend werden das n-te Moment E{xn } =

X

xni p(xi )

(5.43)

i∈I

und das n-te zentrale Moment E{(x − E{x})n } =

X (xi − E{x})n p(xi )

(5.44)

i∈I

definiert. Die Berechnung der Wahrscheinlichkeit und der Momente bei mehrdimensionalen diskreten Zufallsvektoren erfolgt entsprechend. Auch die Begriffe Kovarianz, Korrelation, Stationarität und Ergodizität lassen sich von den zeitkontinuierlichen stochastischen Prozessen meist mit Hilfe minimaler Modifikationen übernehmen. Der interessierte Leser findet hierzu in [BS75, Hä83, Ise74, Pue15] genauere Ausführungen.

5.3

Fourier-Transformation zeitdiskreter Signale

Zur Bearbeitung von Problemen der Mess-, Steuerungs- und Regelungstechnik werden Digitalrechner verwendet. Die Signale werden in solchen Digitalrechnern nicht mehr kontinuierlich verarbeitet, sondern müssen davor abgetastet werden. Zwar erreicht man bei genügend hoher Abtastrate eine quasikontinuierliche Verarbeitung, trotzdem unterscheiden sich die Spektren eines kontinuierlichen und eines abgetasteten Signals prinzipiell. Dieser Unterschied wird im folgenden Abschnitt untersucht.

5 Zeitdiskrete Signale

250

5.3.1

Definition der Fourier-Transformation zeitdiskreter Signale

Ein zeitkontinuierliches Signal y(t) werde mit der Abtastzeit tA = 1/fA abgetastet. Das abgetastete Signal y∗ (t) ergibt sich aus y(t) durch Multiplikation mit einer Impulsreihe ∞ X

y∗ (t) = y(t) ·

n=−∞

δ(t − ntA ) =

∞ X n=−∞

yn δ(t − ntA )

(5.45)

oder als Folge n ∈ Z.

yn = y(ntA ) ,

(5.46)

Setzt man (5.45) in (3.192) ein, so erhält man die Fourier-Transformierte des zeitdiskreten Signals y∗ (t) als Z∞

−j2πf t

y∗ (t) e

Y∗ (f ) =

−∞ n=−∞

−∞

=

=

dt =

Z∞ X ∞

Z∞ ∞ X n=−∞−∞ ∞ X

y(t) δ(t − ntA ) e−j2πf t dt

y(t) · δ(t − ntA ) e−j2πf t dt

y(ntA ) e−j2πf ntA =

n=−∞

∞ X

yn e−j2πf ntA .

(5.47)

(5.48)

(5.49)

n=−∞

Satz 5.6: Fourier-Transformation zeitdiskreter Signale Das Spektrum eines mit der Abtastfrequenz fA abgetasteten Signals y(t) ist durch Y∗ (f ) =

∞ X

yn e−j2πf ntA =

n=−∞

∞ X

y(ntA ) e−j2πf ntA

(5.50)

n=−∞

gegeben. Die inverse Fourier-Transformation berechnet sich bei Zeitdiskretisierung durch Integration über das Nyquist-Band: 1 yn = fA

fZA /2

Y∗ (f ) ej2πf ntA df .

(5.51)

−fA /2

Dies entspricht einer Rekonstruktion des zeitkontinuierlichen Signals y(t) mit anschließender Abtastung zu yn . •

5.3 Fourier-Transformation zeitdiskreter Signale

251

Beweis 5.7 (Inverse Fourier-Transformation zeitdiskreter Signale) Zum Beweis von (5.51) integrieren wir Y∗ (f ) über das Nyquist-Band und setzen für Y∗ (f ) Gleichung (5.50) ein: fZA /2

j2πf ntA

Y∗ (f ) e

fZA /2

∞ X

df =

−fA /2

−fA /2

=

0

yn0 e−j2πf n tA ej2πnf tA df

(5.52)

n0 =−∞

∞ X

fZA /2

yn0

n0 =−∞

0

ej2π(n−n )tA f df .

(5.53)

−fA /2

Mit der Substitution f tA = f 0 , df 0 = tA df folgt: fZA /2

j2πf ntA

Y∗ (f ) e

df =

∞ X n0 =−∞

−fA /2

=

∞ X

Z1/2 yn0

ej2πf

0

(n−n0 )

fA df 0

(5.54)

−1/2

yn0 fA δnn0 = yn fA ,

(5.55)

n0 =−∞

wobei δnn0 das Kronecker-Delta bezeichnet. Man erkennt, dass das Spektrum (5.50) mit fA = 1/tA periodisch ist, da für k ∈ Z gilt:   ∞ X k −j2π(f + tk )ntA A = y(ntA ) e (5.56) Y∗ f + tA n=−∞ =

∞ X n=−∞

−j2π tk ntA

y(ntA ) e−j2πf ntA e|

A

{z

=1

(5.57)

}

= Y∗ (f ) .

(5.58)

Dies folgt bereits daraus, dass für Y∗ (f ) im Beweis des Abtasttheorems die Darstellung   ∞ k 1 X (5.59) Y f− Y∗ (f ) = tA tA k=−∞

hergeleitet wurde, aus welcher die Periodizität unmittelbar abzulesen ist. Zur Vereinfachung wird die Frequenz f oft auf die Abtastfrequenz 1/tA normiert. Dabei ergibt sich die normierte Kreisfrequenz Ω=

2πf = 2πf tA . 1/tA

(5.60)

Dadurch vereinfacht sich (5.50) zu: Y∗ (Ω) =

∞ X n=−∞

yn e−jΩn .

(5.61)

5 Zeitdiskrete Signale

252 Nun ist das Spektrum 2π-periodisch.

Satz 5.8: Fourier-Transformation zeitdiskreter Signale (normierte Version) Das normierte Spektrum eines mit der Abtastfrequenz 1/tA abgetasteten Signals y(t) ist mit Ω = 2πf tA wie folgt gegeben: Y∗ (Ω) =

∞ X

∞ X

yn e−jΩn =

n=−∞

y(n tA ) e−jΩn .

(5.62)

n=−∞

Die inverse Fourier-Transformation zeitdiskreter Signale berechnet sich durch 1 yn = 2π



Y∗ (Ω) ejΩn dΩ .

(5.63) •

−π

Bemerkung 5.9 1. Es ist zu beachten, dass die Variable Ω die Abtastfrequenz fA beinhaltet und nicht losgelöst von dieser betrachtet werden kann. 2. Die normierte Fourier-Transformation zeitdiskreter Signale wird in der Literatur oft in Anlehnung an die englische Bezeichnung „discrete-time Fourier transform“ auch mit DTFT{yn } = Y∗ (Ω) ,

DTFT−1 {Y∗ (Ω)} = yn

(5.64)

bezeichnet, ist aber nicht mit der diskreten Fourier-Transformation (DFT) zu verwechseln (vgl. Abschn. 5.5.1). 3. Hat das ursprüngliche zeitkontinuierliche Spektrum Y (Ω) von null verschiedene Anteile nur im Bereich Ω = [−π, π] ,

(5.65)

so stimmt das Spektrum Y∗ (Ω) der im Zeitbereich abgetasteten Funktion y∗ (t) in diesem Bereich mit dem Spektrum Y (Ω) der zeitkontinuierlichen Funktion y(t) überein. Genau dies ist die Aussage des Abtasttheorems von Shannon. Normierte Kreisfrequenzen mit |Ω| ≥ π werden wegen der Periodizität des Spektrums in den Bereich −π bis π gespiegelt. Dies wurde in Abschnitt 5.1.3 behandelt. •

5.3.2

Eigenschaften der Fourier-Transformation zeitdiskreter Signale

In diesem Abschnitt werden einige Eigenschaften für die normierte Fourier-Transformation zeitdiskreter Signale vorgestellt. Diese erweisen sich bei der Betrachtung zeitdiskreter Signale oft als hilfreich und sind in den meisten Fällen analog zu den entsprechenden Aussagen bei zeitkontinuierlichen Signalen.

5.3 Fourier-Transformation zeitdiskreter Signale

253

Satz 5.10: Zeitverschiebung Die Fourier-Transformierte der zeitverschobenen Folge yn−n0 ist durch eine modulierte Frequenzfunktion gegeben. Es gilt: DTFT{yn−n0 } = e−jΩn0 Y∗ (Ω) .

(5.66) •

Beweis 5.11 (Zeitverschiebung) Die Aussage folgt durch Anwenden der Definitionsgleichung: DTFT{yn−n0 } =

∞ X

yn−n0 e−jΩn =

n=−∞

∞ X

yn−n0 e−jΩ(n−n0 ) e−jΩn0

(5.67)

n=−∞

= Y∗ (Ω) e−jΩn0 .

(5.68)

Satz 5.12: Frequenzverschiebung Die Fourier-Transformierte einer modulierten Wertefolge yn ejΩ0 n ergibt sich über eine Frequenzverschiebung der Spektralfunktion: DTFT{yn ejΩ0 n } = Y∗ (Ω − Ω0 ) .

(5.69) •

Beweis 5.13 (Frequenzverschiebung) Ebenfalls mittels der Definitionsgleichung ergibt sich: DTFT{yn ejΩ0 n } =

∞ X

yn ejΩ0 n e−jΩn =

n=−∞

= Y∗ (Ω − Ω0 ) .

∞ X

yn e−j(Ω−Ω0 )n

(5.70)

n=−∞

(5.71)

Die beiden folgenden Aussagen lassen sich ebenfalls relativ einfach durch Anwendung der Gleichungen (5.62) und (5.63) beweisen. Satz 5.14: Multiplikation zweier Wertefolgen Für die Fourier-Transformation eines Produktes zweier Wertefolgen xn und yn gilt DTFT{xn · yn } =

1 X∗ (Ω) ∗ Y∗ (Ω) . 2π

(5.72) •

5 Zeitdiskrete Signale

254 Satz 5.15: Faltung zweier Wertefolgen

Die Faltung xn ∗ yn zweier Folgen xn und yn im Zeitbereich geht durch die FourierTransformation in eine Multiplikation über. Mit X∗ (Ω) = DTFT{xn } und Y∗ (Ω) = DTFT{yn } folgt DTFT{xn ∗ yn } = X∗ (Ω) · Y∗ (Ω) .

(5.73) •

5.3.3

Energie- und Leistungsdichte

Die Kreuzkorrelation zweier zeitdiskreter Energiesignale xn , yn mit diskreter Zeitverschiebung τ = k tA wird als das zeitdiskrete Innenprodukt berechnet: E rxy [k] = hxn+k , yn in =

∞ X

xn+k yn∗ .

(5.74)

n=−∞

Ähnlich wie in Abschnitt 3.5.2.2 kann die Korrelation mit der Substitution m = −n als Faltungssumme formuliert werden: ∞ X

E rxy [k] =

m=−∞

∗ ∗ xk−m y−m = xk ∗ y−k .

(5.75)

Die Fourier-Transformierte der zeitdiskreten Kreuzkorrelation für Energiesignale ist die Kreuzenergiedichte E S∗xy (f ) =

∞ X

E rxy [k] e−j2πf ktA .

(5.76)

k=−∞

Bei Energiesignalen kann man die Energiedichte im Frequenzbereich ohne Umweg über die Korrelation unmittelbar aus dem Produkt der Fourier-Transformierten berechnen. Durch Einsetzen von (5.75) in (5.76) folgt E S∗xy (f ) =

=

∞ X

∞ X

k=−∞ m=−∞ ∞ ∞ X X

∗ xk−m y−m e−j2πf ktA

(5.77)

∗ xk−m e−j2πf (k−m)tA · y−m e−j2πf mtA .

(5.78)

k=−∞ m=−∞

Mit der Substitution k 0 = k − m wird dies gleich dem Produkt E S∗xy (f ) =

∞ X k0 =−∞

0

xk0 e−j2πf k tA

∞ X m=−∞

∗ y−m e−j2πf mtA = X∗ (f ) Y∗∗ (f ) .

(5.79)

5.4 Abtastfrequenz

255

Die inverse Fourier-Transformation (5.51) der Energiedichte im Frequenzbereich ist die zeitdiskrete Korrelation E rxy [k]

fZA /2

1 = fA

S∗xy (f ) ej2πf ktA df .

(5.80)

−fA /2

Die Energie des abgetasteten Signals ist gleich der Autokorrelationsfunktion an der Stelle k = 0: E∗x =

E rxx [0]

∞ X

1 |xn | = = f A n=−∞ 2

fZA /2

E S∗xx (f ) df .

(5.81)

−fA /2

Die Energie E∗x des abgetasteten Signals ist im Allgemeinen nicht identisch mit der Energie Ex des zeitkontinuierlichen Signals. Die Fourier-Transformierte der zeitdiskreten Korrelationsfunktion für zeitdiskrete Leistungssignale ist die Leistungsdichte S∗xy (f ). Eine unmittelbare Berechnung aus den Fourier-Transformierten der Signale ist bei Leistungssignalen nicht möglich. Die Leistung des zeitdiskreten Signals ist gleich der zeitdiskreten Autokorrelationsfunktion für die Zeitverschiebung k = 0,

P∗x

N X 1 1 |xn |2 = = rxx [0] = lim N →∞ 2N + 1 fA n=−N

fZA /2

S∗xx (f ) df ,

(5.82)

−fA /2

entsprechend dem Integral der Leistungsdichte des zeitdiskreten Signals über dem Nyquist-Band.

5.4

Abtastfrequenz

In der digitalen Signalverarbeitung ist die Wahl einer geeigneten Abtastfrequenz von zentraler Bedeutung. Das Abtasttheorem gibt Bedingungen zur Vermeidung von Aliasing vor. Kann dieses jedoch nicht eingehalten werden, so sollen durch geschickte Wahl der Abtastfrequenz fA Aliasing-Einflüsse minimiert werden. Da das Spektrum realer Signale für hohe Frequenzen gegen null geht, könnte man mit einer genügend hohen Abtastfrequenz fA Aliasing-Fehler nahezu ausschließen. In der Praxis ist dieser Weg nicht immer gangbar. Wo hochfrequente Signale anfallen, beispielsweise in der Bildverarbeitung und in der Nachrichtentechnik, kommt man sehr nahe an die Grenze der Leistungsfähigkeit der digitalen Signalverarbeitungsanlagen. Damit ist die Abtastfrequenz durch die technischen Gegebenheiten begrenzt. Wichtig für die Wahl der Abtastfrequenz ist auch die Frage, wann die verarbeiteten Daten zur Verfügung stehen müssen. Werden beispielsweise Versuchsdaten auf Da-

5 Zeitdiskrete Signale

256

Abbildung 5.15: Quasikausalität im Online-Betrieb.

tenträgern abgespeichert und die Signalverarbeitung im Offline-Betrieb vorgenommen, so muss die Auswertung nicht mit dem gleichen Takt wie die Abtastung erfolgen. Der Offline-Betrieb kann jedoch nur dann gewählt werden, wenn das Ergebnis der Auswertung nicht in den Versuch zurückgeführt werden muss. Der Vorteil liegt in der möglichen Verwendung akausaler Filter, da aufgrund der verspäteten Auswertung auch „zukünftige“ Werte vorliegen. Im Gegensatz zum Offline-Betrieb stehen beim Online-Betrieb neben dem aktuellen Abtastwert lediglich alle vergangenen Abtastwerte zur Verfügung und das Ergebnis der Signalverarbeitung muss idealerweise bereits beim darauffolgenden Abtastschritt vorhanden sein. Der Verarbeitungsalgorithmus muss also kausal sein. In vielen Fällen der digitalen Signalverarbeitung, so z. B. bei der Sprach- und Bildverarbeitung, ist eine um N + 1 Abtastschritte verzögerte Ausgabe des Ergebnisses tolerierbar. Hierdurch könnten die N dem aktuellen Zeitpunkt folgenden Abtastwerte in die aktuelle Berechnung mit eingehen. Dadurch erreicht man eine Art Quasikausalität. Dies ist in Abb. 5.15 skizziert. Bei der Wahl der Abtastfrequenz gibt es zwei wichtige Begriffe, auf die im Folgenden näher eingegangen wird. Bei der Überabtastung wird eine Abtastfrequenz fA gewählt, die deutlich höher ist, als es vom Abtasttheorem gefordert wird. Bei der Unterabtastung liegt die Abtastfrequenz fA hingegen deutlich niedriger.

5.4.1

Überabtastung

Bei der Verarbeitung zeitkontinuierlicher Signale durch Digitalrechner werden diese Signale abgetastet und anschließend rekonstruiert. Die Realisierung dafür geeigneter Anti-Aliasing- und Rekonstruktionsfilter kann dabei erhebliche Probleme aufwerfen. Im Folgenden wird gezeigt, wie man durch Überabtastung und zeitdiskrete Filterung den Aufwand für Anti-Aliasing- und Rekonstruktionsfilter reduzieren kann.

5.4.1.1

Überabtastung bei der Anti-Aliasing-Filterung

Interessieren die Spektralinformationen eines Signals y(t) in einem Frequenzbereich (−fN , fN ), so muss aufgrund des Abtasttheorems das Signal y(t) mindestens mit der Frequenz fA = 2fN abgetastet werden. Um Aliasing zu vermeiden, muss das Signal y(t) zuerst mit einem idealen Tiefpass auf das Nyquist-Band (−fN , fN ) beschränkt werden. In der Praxis gibt es keinen idealen Tiefpass – außerdem bewirken Tiefpäs-

5.4 Abtastfrequenz

257

Analoges Anti-AliasingFilter

Überabtastung mit

Zeitdiskretes Anti-AliasingFilter

Downsampling

Verarbeitung, Speicherung

Upsampling

Zeitdiskretes Interpolationsfilter

Analoges Rekonstruktions-Filter

Abbildung 5.16: Vorgehensweise bei der Überabtastung.

se mit hoher Flankensteilheit starke Phasenverzerrungen (vgl. Beispiel 4.56) und sind sehr aufwändig zu realisieren. Mit Hilfe der Überabtastung kann man dieses Problem umgehen. Dabei verwendet man zuerst ein relativ einfaches Anti-Aliasing-Filter mit geringer Flankensteilheit und tastet das gefilterte Signal mit einer deutlich höheren Abtastfrequenz fA0 ab, siehe Abb. 5.16. Das resultierende zeitdiskrete Signal yn0 wird dann mit einem zeitdiskreten Filter hoher Flankensteilheit auf das eigentliche Nyquist-Band (−fN , fN ) begrenzt. Danach reduziert man die Abtastfrequenz wieder auf fA = 2fN , was als Downsampling bezeichnet wird. Liegt die Frequenz fN in einem Bereich, bei dem es technisch kein Problem darstellt, mit einer weitaus höheren Abtastfrequenz als 2fN überabzutasten, dann wird das Signal y(t) mit der r-fachen Abtastfrequenz fA0 = r · fA = r · 2fN ,

r > 1,

(5.83)

abgetastet. Der Faktor r ist der Grad der Überabtastung – man spricht etwa bei r = 4 von einer 4-fachen Überabtastung. Bei der späteren Betrachtung des Downsampling ergibt sich der Faktor r sinnvollerweise als eine ganze Zahl. Das mit der r-fachen Abtastfrequenz fA0 abgetastete Signal yn0 wird nun mit Hilfe eines zeitdiskreten Filters im Spektralbereich auf das Nyquist-Band [−fN , fN ] reduziert: zn0 = S{yn0 } .

(5.84)

Dabei können zeitdiskrete Filter im Digitalrechner verwendet werden, die den Phasenverlauf weniger stark stören (siehe Abschnitt 6.7.4). Das gefilterte, zeitdiskrete Signal zn0 besitzt definitionsgemäß nur Frequenzanteile im eigentlichen Nyquist-Band, d. h. eine höhere Abtastrate als fA ist nicht mehr erforderlich. Zur Berechnung von zm , dem mit der Abtastfrequenz fA abgetasteten Signal, wird nun ein Gedankenexperiment durchgeführt. Dabei wird das gefilterte, überabgetastete, zeitdiskrete Signal zn0 zuerst ideal rekonstruiert und anschließend mit der einfachen Abtastfrequenz fA wieder abgetastet. Das gefilterte, zeitdiskrete Signal zn0 wurde zu den Zeitpunkten t0n =

n n = tA , 2rfN r

n∈Z

(5.85)

5 Zeitdiskrete Signale

258

überabgetastet. Hieraus ergibt sich nach (5.8) mit B = rfN das rekonstruierte Signal    n ∞ sin 2πrfN t − 2rf X N   . zn0 zˆ(t) = (5.86) n 2πrfN t − 2rfN n=−∞ Das zeitkontinuierliche Signal zˆ(t) wird nun zu den Zeitpunkten tm =

m , 2fN

m ∈ Z,

(5.87)

mit der niedrigen Abtastrate 2fN abgetastet. Die Abtastwerte ergeben sich zu    n ∞ sin 2πrfN 2fmN − 2rf X N   zm = zˆ(tm ) = zn0 m n 2πrfN 2fN − 2rfN n=−∞ =

∞ X

n=−∞

zn0

sin(π(rm − n)) . π(rm − n)

Ist r ∈ Z \ {0}, dann gilt für den

(5.88)

(5.89)

sin(x) x -Bruch

sin(π(rm − n)) = sinc(rm − n) = π(rm − n)



1 0

für rm = n . sonst

(5.90)

Hieraus folgt dann 0 zm = zrm .

(5.91)

Dies bedeutet, dass zur Reduzierung der Abtastrate lediglich jeder r-te Abtastwert von zn0 weiterverwendet wird. Für allgemeine r ∈ R wäre keine Vereinfachung gemäß (5.91) möglich, sondern die Abtastwerte zm mit der einfachen Abtastfrequenz fA müssten nach (5.89) bestimmt werden. In der Praxis wäre das nicht durchführbar, weil nicht alle Abtastwerte zn0 , n ∈ Z, zur Verfügung stehen. Die Betrachtung im Frequenzbereich zeigt, dass bei der idealen Rekonstruktion (5.8) das Spektrum Z∗0 (f ) des zeitdiskreten Signals zn0 im Frequenzbereich [−rfN , rfN ] vollständig und unverzerrt erhalten bleibt, seine Periodizität verschwindet und es außerhalb des Frequenzbereiches [−rfN , rfN ] keine Signalanteile besitzt. Die Abtastung mit der einfachen Abtastfrequenz fA erzeugt eine periodische Fortsetzung des Spektrums mit Nyquist-Band [−fN , fN ]. Um Aliasing zu vermeiden, müssen zuvor im Spektrum Z∗0 (f ) des zeitdiskreten Signals zn0 alle Signalanteile im Frequenzbereich [−rfN , −fN ] bzw. [fN , rfN ] beseitigt werden. Der gesamte Vorgang der Überabtastung wird in Abb. 5.17 im Spektralbereich gezeigt. Dabei wird das Signal y(t) durch zweifache Überabtastung abgetastet, im zeitdiskreten Bereich auf das Nyquist-Band begrenzt und anschließend durch Downsampling auf die einfache Abtastfrequenz gebracht.

5.4 Abtastfrequenz

259

Abbildung 5.17: Zweifache Überabtastung eines Signals y(t) im Spektralbereich.

Der Vorteil der Überabtastung liegt in der Verwendung eines kostengünstig im Mikrorechner realisierbaren zeitdiskreten Anti-Aliasing-Filters. Der Nachteil liegt offensichtlich in der anfänglich höheren Abtastrate. Zum Abschluss wird die Überabtastung an einem Beispiel demonstriert.

Beispiel 5.16: Überabtastung bei der CD-Aufnahme In der Spezifikation der Audio-CD wird eine Abtastfrequenz von fA = 44,1 kHz vorgeschrieben; die Nyquist-Frequenz liegt also bei fN = 22.050 Hz. Der von einer Audio-CD übertragene Frequenzbereich liegt etwa zwischen 5 Hz und 20.000 Hz. Da an der oberen Grenze des Hörbereiches das Signal um maximal 3 dB und bei der Nyquist-Frequenz um mindestens 60 dB gedämpft werden soll, müsste man ohne Überabtastung ein Anti-Aliasing-Filter sehr hoher Ordnung verwenden. Dies würde zu starken Phasenverzerrungen führen, die im Audiobereich nicht tolerierbar sind, da das menschliche Ohr hierfür sehr empfindlich ist. Hingegen liegt bei 8-facher Überabtastung die Abtastfrequenz bei 352,8 kHz, was technisch kein Problem darstellt. Um hier Aliasing-Effekte zu vermeiden, muss das Audiosignal erst ab 176,4 kHz praktisch verschwinden. Dies ist oftmals allein durch das Übertragungsverhalten des Mikrophons gegeben. Nach zeitdiskreter Filterung auf die eigentliche Nyquist-Frequenz 22.050 Hz folgt dann das Downsampling auf die Abtastfrequenz 44,1 kHz. •

5 Zeitdiskrete Signale

260

5.4.1.2

Überabtastung bei der Rekonstruktion

Die Überabtastung spielt nicht nur bei der Abtastung eines Signals und bei der Vermeidung von Aliasing eine Rolle, sondern auch bei der Rekonstruktion des zeitkontinuierlichen Signalverlaufes. In Abschnitt 5.1.4 wurde gezeigt, dass die Rekonstruktion keine triviale Aufgabe ist, da man zur vollständigen, fehlerfreien Rekonstruktion einen idealen Tiefpass benötigt. Ähnlich wie bei Überabtastung zur Vermeidung steilflankiger analoger Filter kann man auch hier den Weg der Überabtastung gehen. Zur Konstruktion eines überabgetasteten zeitdiskreten Signals zn0 wird die Abtastrate durch äquidistantes Einfügen von r − 1 zusätzlichen Werten zwischen den eigentlichen Abtastwerten zm um den Faktor r erhöht. Damit sinken die Anforderungen an das Rekonstruktionsfilter. Beim Einfügen von zusätzlichen Werten bieten sich zwei Methoden an. Auf der einen Seite werden Nullen eingefügt. Dies hat den Vorteil, dass der Energiegehalt des Signals nicht geändert wird. Dann wird das Spektrum mit einem über das NyquistBand [− f2A , f2A ] reichenden Tiefpassfilter gefiltert. Die Filterung entspricht einer Interpolation, bei der die eingefügten Nullen durch interpolierte Zwischenwerte ersetzt werden. Die zweite Möglichkeit besteht in der Wiederholung des jeweils letzten ursprünglichen Abtastwertes, d. h. ein Abtastwert zm wird (r − 1)-mal zusätzlich eingefügt. Dadurch erhöht sich natürlich der Energiegehalt des Signals. Dies soll nun mathematisch analysiert werden. Hierbei werden die beiden Möglichkeiten zur Ausfüllung der Zwischenstellen separat betrachtet. Einfügen von Nullen. Das Spektrum des zeitdiskreten Signals zm = z(mtA ), m ∈ Z, ergibt sich nach (5.50) zu Z∗ (f ) =

∞ X

zm e−j2πf mtA .

(5.92)

m=−∞

Beim Einfügen von Nullen entstehen aus den einfachen mit der Abtastfrequenz fA abgetasteten Abtastwerten zm die Abtastwerte  zm für n = r · m 0 zn = (5.93) 0 sonst mit der Abtastfrequenz rfA , deren Spektrum sich vom Spektrum Z∗ (f ) des ursprünglichen, zeitdiskreten Signals zm nicht unterscheidet: Z∗0 (f ) = =

∞ X

zn0 e−j2πf n

n=−∞ ∞ X

tA r

=

∞ X

zm e−j2πf rm

tA r

(5.94)

m=−∞

zm e−j2πf mtA = Z∗ (f ) .

(5.95)

m=−∞

Dies ist auch einleuchtend, denn betrachtet man ein zeitdiskretes Signal als Impulsreihe, so werden beim Einfügen von Nullen nur Impulse der Höhe null eingefügt. Die zeitdiskrete Funktion z∗ (t) ändert sich nicht. Die Zeit- und Spektralfunktionen finden sich in Abb. 5.18. •

5.4 Abtastfrequenz

261

4

0,6 0,4 0,2 0

0

–0,2 –2

4

–1

0

1

2

–1

0

1

2

0,6 0,4 0,2 0

0

–0,2 –2

Abbildung 5.18: Spektrum nach Einfügen von Nullen; darunter Spektrum nach zeitdiskreter Filterung – was einer Interpolation entspricht – bei Überabtastung um den Faktor 4.

Wiederholen des Abtastwertes. Bei (r − 1)-fachem Wiederholen des letzten Abtastwertes werden die neuen Abtastwerte zu zn00 = zm ,

i = 0...r − 1,

n = rm + i ,

m ∈ Z.

(5.96)

Deren Fourier-Transformierte Z∗00 (f ) =

∞ X

zn00 e−j2πf n

tA r

=

∞ X

zm e−j2πf (rm+i)

tA r

(5.97)

m=−∞ i=0

n=−∞

=

r−1 ∞ X X

zm e−j2πf mtA ·

m=−∞

r−1 X

e−j2πf i

tA r

(5.98)

i=0

wird mit r−1 X i=0

e−j2πf i

tA r

= e−jπf tA (1− r ) · 1

sin(πf tA )  sin πf trA

(5.99)

5 Zeitdiskrete Signale

262

4

0,6

3

0,4

2

0,2

1

0

0

–0,2 –2

4

–1

0

1

2

–1

0

1

2

0,6

3

0,4

2

0,2

1

0

0

–0,2 –2

Abbildung 5.19: Ursprüngliches Spektrum eines zeitdiskreten Signals; darunter Spektrum nach Wiederholen des letzten Abtastwertes bei 4-facher Überabtastung; deutlich erkennbar ist die Erhöhung der Energie.

wie folgt beschrieben: Z∗00 (f ) = Z∗ (f ) · e−jπf tA (1− r ) · 1

sin(πf tA ) . sin πf trA

(5.100)

Hier erkennt man auf der einen Seite eine Phasenverzerrung durch e−jπf tA (1−1/r) und auf der anderen Seite eine Amplitudenverzerrung durch den Quotienten zweier SinusSchwingungen. In Abb. 5.19 sieht man deutlich die Verzerrung des Spektrums bei Wiederholen des letzten Abtastwertes. • In der Praxis wird man also Nullen einfügen, um eine Verzerrung des Spektrums zu vermeiden. Durch das Upsampling auf zn0 bzw. Z∗0 (f ) verändert sich das Spektrum nicht. Die Interpolation zwischen vorhandenen Stützstellen (Abstand tA ) ersetzt die eingefügten Nullen (Abstand trA ) durch interpolierte Stützstellen. Die Interpolation erfolgt mit einem idealen zeitdiskreten Rechtecktiefpass mit der Grenzfrequenz f2A (nicht r f2A !). Die Abfolge von Upsampling und Interpolationsfilter kann analytisch durch eine Rekonstruktion der zm und anschließende Überabtastung mit fA0 = rfA beschrieben wer-

5.4 Abtastfrequenz

263

den. Die Rekonstruktion ist nach (5.8) x ˆ(t) =

∞ X

zm

m=−∞

sin(πfA (t − mtA )) . πfA (t − mtA )

(5.101)

Die Überabtastung ergibt x0n = x ˆ(t = nt0A ) =

∞ X m=−∞

=

∞ X m=−∞

zm

zm

sin(πfA ( nr tA − mtA )) πfA ( nr tA − mtA )

sin(π( nr − m)) . π( nr − m)

(5.102) (5.103)

In den ursprünglichen Stützstellen gilt n = rm und damit x0n = zn/r .

(5.104)

Beispiel 5.17: Überabtastung bei der CD-Wiedergabe Bei der Wiedergabe einer Audio-CD liegen die zeitdiskreten Audiosignale mit der festen Abtastfrequenz fA = 44,1 kHz vor. Um die Verwendung eines steilflankigen zeitkontinuierlichen Rekonstruktionsfilters zu vermeiden, wird in CD-Wiedergabegeräten die Methode des Überabtastens verwendet. Bei einer exemplarischen Überabtastrate von 4 fügt man drei Nullwerte äquidistant zwischen den von der CD gelesenen Abtastwerten ein. Dadurch erhöht sich die Abtastfrequenz fA um den Faktor 4. Nun filtert man mit Hilfe eines zeitdiskreten Filters die Frequenzanteile von der eigentlichen Nyquist-Frequenz fN bis zur überabgetasteten Nyquist-Frequenz fN0 heraus. Damit ist das eigentliche Signal wiederhergestellt und kann dann mit Hilfe eines einfachen Rekonstruktionsfilters ausgegeben werden. In Abb. 5.20 sieht man in der ersten Abbildung die von der CD gelesenen Abtastwerte zm , in der zweiten Abbildung das dazugehörige Spektrum Z∗ (f ). In der dritten Abbildung sieht man die Wertefolge zn0 nach dem Einfügen von Nullen, in der vierten Abbildung das dazugehörige unveränderte Spektrum Z∗0 (f ). In der fünften Abbildung sieht man die interpolierte Wertefolge x0n . Diese wurde durch Rechteckfilterung des Nyquist-Bandes ermittelt, wie das dazugehörige Spektrum X∗ (f ) in der sechsten Abbildung zeigt. • Schon hier sei angemerkt, dass eine zeitdiskrete Filterung durch Additionen, Multiplikationen und Speicherungen durchgeführt wird. Fügt man zur Überabtastung Nullen zwischen den ursprünglichen Werten ein, so erhöht sich der „Rechenaufwand“ nur unwesentlich, da die Multiplikation bzw. die Addition mit null trivial ist und keiner Rechenzeit bedarf.

5 Zeitdiskrete Signale zm

264

|Z∗ (f )|

m

f /Hz

zn

fA

|Z∗ (f )|

n

fA

xn

f /Hz

|X∗ (f )|

n

f /Hz

fA

Abbildung 5.20: Vorgang bei der Rekonstruktion; die interpolierten Stützstellen mit n 6= rm werden durch ideale Tiefpassfilterung gewonnen.

5.4.2

Unterabtastung

Bei der Überabtastung wählt man eine höhere Abtastfrequenz, um ein Signal y(t) verzerrungsärmer abzutasten bzw. zu rekonstruieren. Dies ist nur dann sinnvoll, wenn der größere Aufwand für die höhere Abtastfrequenz durch die bessere Qualität des Signals gerechtfertigt wird. Die höhere Abtastfrequenz muss natürlich technologisch realisierbar sein. Hat man hingegen ein Bandpass-Signal y(t) mit sehr hohen Frequenzanteilen (z. B. ein Bildsignal oder das Signal einer UKW-Antenne), und kann die nach dem Abtasttheorem geforderte kleinste Abtastfrequenz gar nicht oder nur mit unverhältnismäßig hohem Aufwand realisiert werden, so muss man eine kleinere Abtastfrequenz wählen. Welche Bedingungen erfüllt sein müssen, damit diese Unterabtastung nicht zu Aliasing-Effekten führt, wird im Folgenden behandelt. Zum Verständnis der Funktionsweise der Unterabtastung wird das folgende Beispiel betrachtet. Beispiel 5.18: Unterabtastung einer harmonischen Schwingung Ein Signal y(t) bestehe aus einer einzigen harmonischen Schwingung der Frequenz f0 = 120 Hz. Dieses Signal wird mit der Frequenz fA = 100 Hz abgetastet. Dabei

5.4 Abtastfrequenz

265

wird die Bedingung des Abtasttheorems, dass die Abtastfrequenz größer als das Doppelte der höchsten vorkommenden Frequenz sein muss, nicht eingehalten. Die harmonische Schwingung findet sich im Nyquist-Band [−fN , fN ] bei der Frequenz 20 Hz wieder. Genauso würden sich bei dieser Abtastfrequenz harmonische Schwingungen der Frequenzen f0 = 20 Hz + r · 100 Hz ,

r ∈ Z,

(5.105)

bei der Frequenz 20 Hz wiederfinden. Trotzdem tritt kein Aliasing auf, wenn das Signal y(t) nur bei einer dieser Frequenzen einen Spektralanteil besitzt, da sich dann keine Spektralanteile überlappen können. • Nun bestehen Signale in der Regel nicht nur aus einzelnen harmonischen Schwingungen, sondern zumindest aus einem Frequenzband. Durch geschickte Wahl der Abtastfrequenz, die hier kleiner als jede vorkommende Frequenz ist, kann eventuell Aliasing vermieden werden. Hierzu muss der Begriff des Frequenzbandes definiert werden. Definition 5.1 Frequenzband Besitzt ein Signal nur Spektralanteile innerhalb eines bestimmten Frequenzintervalls, welches dann als Frequenzband bezeichnet wird, so gibt die Mittenfrequenz f0 die mittlere Frequenz dieses Intervalls und die Bandbreite B die Differenz zwischen der höchsten und niedrigsten vorkommenden Frequenz an. Hierbei wird B  f0 gefordert. Abbildung 5.21 stellt ein Frequenzband mit der Mittenfrequenz f0 und der Bandbreite B dar.

Abbildung 5.21: Frequenzband mit der Mittenfrequenz f0 und der Bandbreite B.

Bemerkung 5.19 1. Die Variable B hat im Zusammenhang mit einem Frequenzband eine andere Bedeutung als bei der Definition des Abtasttheorems. 2. Da bandbegrenzte reelle Signale Spektralanteile sowohl im positiven als auch im negativen Frequenzbereich besitzen, müsste man bei ihnen immer zwei Frequenzbänder angeben. Da aber die Bandbreite beider Frequenzbänder gleich ist und sich die Mittenfrequenzen, vom Vorzeichen abgesehen, auch nicht unterscheiden, spricht man auch bei reellen Signalen immer nur von einem Frequenzband. Trotzdem muss man das zweite Frequenzband bei der Unterabtastung berücksichtigen, um Aliasing-Effekte auszuschließen. •

5 Zeitdiskrete Signale

266

Abbildung 5.22: Projektion einer Mittenfrequenz ins Nyquist-Band.

Bei der Wahl der Abtastfrequenz fA zur Unterabtastung des Signals muss festgelegt werden, bei welcher Frequenz f00 im Nyquist-Band die Mittenfrequenz f0 erscheinen soll. Dabei wird die Wahl der Abtastfrequenz fA nicht eindeutig sein. Die Bandbreite B des Frequenzbandes dient dann zur Bestimmung der Abtastfrequenz, bei der kein Aliasing auftritt. Entsprechend Beispiel 5.18 erscheint bei Verwendung der Abtastfrequenz fA die Mittenfrequenz f0 bei den Frequenzen f0 + r · fA ,

r ∈ Z.

(5.106)

Besitzt man eine feste Mittenfrequenz f0 , so projizieren alle Abtastfrequenzen fA =

f0 − f00 , r

r ∈ Z \ {0} ,

(5.107)

die Mittenfrequenz f0 auf die Frequenz f00 im Nyquist-Band, vgl. Abb. 5.22. Die Abtastfrequenzen werden mit größer werdendem r immer kleiner. Die untere Schranke für die wählbare Abtastfrequenz stellt die Bandbreite B dar, wie im Folgenden gezeigt wird. Nach Kenntnis der Frequenzen, die im Nyquist-Band als Bildfrequenzen erreicht werden können, stellt sich die Frage, auf welche Frequenz f00 die Mittenfrequenz f0 projiziert werden soll. Zwei typische Möglichkeiten sind die Frequenzen f00 = 0 Hz und f00 = f2N . Weshalb das so ist, soll nun untersucht werden.

Abbildung 5.23: Bandspektrum YB (f ) eines reellen Signals.

Da man bei reellen Signalen beide Frequenzbänder beachten muss, führt man das in Abb. 5.23 dargestellte Bandspektrum YB (f ) ein, das dem um die Mittenfrequenz

5.4 Abtastfrequenz

267

f0 verschobenen positiven Frequenzband des zeitkontinuierlichen Signals y(t) entspricht:    Y (f + f0 ) für f ∈ − B2 , B2 . (5.108) YB (f ) = 0 sonst Das Spektrum Y (f ) besteht aus den beiden Frequenzbändern im positiven bzw. negativen Frequenzbereich Y (f ) = Y + (f ) + Y − (f ) ,

(5.109)

die durch Y + (f ) = YB (+f − f0 ) , −

Y (f ) =

YB∗ (−(f

+ f0 )) =

(5.110) YB∗ (−f

− f0 )

(5.111)

definiert sind. Ihr zeitdiskretes Spektrum Y∗ (f ) nach Abtastung mit der Abtastfrequenz fA ergibt sich zu Y∗ (f ) = Y∗+ (f ) + Y∗− (f )

(5.112)

mit Y∗+ (f ) = fA · Y∗− (f ) = fA ·

∞ X k=−∞ ∞ X k=−∞

5.4.2.1

YB (+f − f0 + kfA ) ,

(5.113)

YB∗ (−f − f0 + kfA ) .

(5.114)

Symmetrische Bandspektren

Möchte man die Mittenfrequenz f0 auf die Frequenz f00 = 0 Hz projizieren, so kann man als Abtastfrequenz fA =

f0 , r

r ∈ Z,

(5.115)

wählen. Im Nyquist-Band [−fN , fN ] erhält man für ein ganzzahliges k mit k≤

f0 = r, fA,min

k ∈ N,

(5.116)

keine spektrale Überlappung. Das Spektrum des zeitdiskreten Signals yn im NyquistBand [− f2A , f2A ] ist dann: Y∗0 (f ) = fA (YB (f ) + YB∗ (−f )) .

(5.117)

5 Zeitdiskrete Signale

268

Abbildung 5.24: Unterabtastung bei symmetrischen Bandspektren: Betragsspektrum ( ) und Bandbreite B. Phasenspektrum (

),

Die Summe von YB (f ) und YB∗ (−f ) stellt eine Überlagerung um die Frequenz 0 Hz dar. Ist das Bandspektrum YB (f ) aber symmetrisch: YB (f ) = YB∗ (−f ) ,

(5.118)

d. h. ist das Frequenzband des reellen Signals symmetrisch um die Mittenfrequenz, so kommt es zu einer konstruktiven Überlagerung des positiven und des negativen Bandspektrums. Für das resultierende Spektrum im Nyquist-Band [−fN , fN ] folgt: Y∗0 (f ) = 2 fA YB (f ) .

(5.119)

Es tritt damit kein Aliasing auf. Abbildung 5.24 veranschaulicht, dass das Bandspektrum mit seiner Bandbreite B das gesamte Nyquist-Band ausfüllen darf. Folglich wird bei symmetrischen Bandspektren die Abtastfrequenz durch die Ungleichung B < 2fN = fA,min

(5.120)

nach unten begrenzt. In Abb. 5.24 sind ein ursprüngliches und ein durch die Unterabtastung entstehendes Spektrum dargestellt. Man erkennt die Überlagerung infolge der Unterabtastung, die zur doppelten Höhe des Spektrums führt. Zusammenfassend gilt der folgende Satz. Satz 5.20: Unterabtastung bei symmetrischen Bandspektren Bei symmetrischen Bandspektren wird die Mittenfrequenz idealerweise auf die Frequenz f00 = 0 Hz projiziert. Dafür stehen die Abtastfrequenzen fA =

f0 , r

r ∈ Z \ {0} ,

(5.121)

5.4 Abtastfrequenz

269

zur Verfügung, wobei als untere Schranke für die Abtastfrequenzen die Ungleichung fA,min > B

(5.122)

und somit f0 (5.123) B gilt. Das Spektrum des unterabgetasteten Signales im Nyquist-Band [−fN , fN ] wird durch r>

Y∗ (f ) = 2 fA YB (f )

(5.124) •

beschrieben.

5.4.2.2

Unsymmetrische Bandspektren

Bei unsymmetrischen Bandspektren ist eine Projektion auf die Frequenz f00 = 0 Hz nicht sinnvoll, da sich die Frequenzbänder im positiven bzw. negativen Frequenzbereich nach der Projektion spektral überlappen und somit aufgrund der nicht vorhandenen Symmetrie Information zerstören würden. Für die positive Mittenfrequenz f0 ist also eine Abtastfrequenz zu suchen, bei der nach der Projektion die beiden Mittenfrequenzen f00 und −f00 möglichst weit voneinander entfernt sind und dennoch die Spektren im Nyquist-Band liegen. Dies ist bei der Frequenz fN fA = 2 4 der Fall. Damit ergeben sich durch f00 =

(5.125)

4f0 fA + r · fA ⇔ fA = (5.126) 4 4r + 1 alle möglichen Abtastfrequenzen. Soll das Spektrum im halben negativen und im halben positiven Nyquist-Band [−fN , 0] bzw. [0, fN ] betrachtet werden, so erhält man für ein ganzzahliges k f0 =

k≤r=

f0 fA,min



1 , 4

k ∈ N,

(5.127)

das Spektrum Y∗0 (f )

 = fA YB



 fA  fA  + YB∗ − f − f− 4 4

 (5.128)

des zeitdiskreten Signals yn im Nyquist-Band [− f2A , f2A ]. Aufgrund der Verschiebung um f4A gibt es keine Überlappung der beiden Teilspektren. Die untere Schranke fA,min (5.129) 2 der Abtastfrequenz fA für unsymmetrische Bandspektren erkennt man in Abb. 5.25. B < fN =

Insgesamt gilt also der folgende Satz.

5 Zeitdiskrete Signale

270

Abbildung 5.25: Maximal zulässige Bandbreite bei unsymmetrischen Bandspektren.

Satz 5.21: Unterabtastung bei unsymmetrischen Bandspektren Bei unsymmetrischen Bandspektren wird die Mittenfrequenz f0 idealerweise auf die halbe Nyquist-Frequenz f00 = f2N projiziert. Dafür stehen die Abtastfrequenzen fA =

4f0 , 4r + 1

r ∈ Z,

(5.130)

zur Verfügung, wobei als untere Schranke für die Abtastfrequenz fA die Ungleichung fA,min > 2B

(5.131)

und somit r>

1 f0 − 2B 4

gilt. Das Spektrum im Nyquist-Band [−fN , fN ] wird durch      fA fA ∗ + YB −f − Y∗ (f ) = fA YB f − 4 4 beschrieben.

(5.132)

(5.133) •

Die Unterabtastung soll nun an einem Beispiel demonstriert werden. Beispiel 5.22: Radiosignal Ein Radiosignal mit der Mittenfrequenz f0 = 20 MHz und der Bandbreite B = 248 kHz soll abgetastet werden. Um den Projektionspunkt f00 der Mittenfrequenz f0 festzulegen, unterscheidet man die beiden Fälle eines symmetrischen und eines unsymmetrischen Bandspektrums.

5.4 Abtastfrequenz

271

1. Bei einem symmetrischen Bandspektrum, wie es z. B. bei der Amplitudenmodulation vorkommt [PS04], wird die Mittenfrequenz auf die Frequenz f00 = 0 Hz projiziert. Mit (5.121) erhält man nun alle möglichen Abtastfrequenzen: fA =

20 MHz , r

r ∈ Z \ {0} .

(5.134)

Gleichung (5.122) gibt die untere Schranke für die Abtastfrequenz fA vor: fA,min > B = 248 kHz .

(5.135)

Die kleinste Abtastfrequenz fA , die dies erfüllt, ergibt sich mit r = 80 zu fA = 250 kHz .

(5.136)

2. Bei einem unsymmetrischen Bandspektrum, wie es z. B. bei der Frequenzmodulation vorkommt, wird die Mittenfrequenz f0 auf die halbe Nyquist-Frequenz projiziert. Mit (5.130) erhält man alle möglichen Abtastfrequenzen: fA =

4 · 20 MHz , 4r + 1

r ∈ Z.

(5.137)

Gleichung (5.131) gibt die untere Schranke für die Abtastfrequenz fA an: fA,min > 2B = 496 kHz .

(5.138)

Hieraus ergibt sich mit k = 40 die kleinste Abtastfrequenz zu fA = 496,89 kHz.

(5.139) •

Bemerkung 5.23 Die Unterabtastung setzt voraus, dass das abzutastende Signal ein Bandpass-Signal ist. Dies ist natürlich im Allgemeinen nicht immer gegeben. Das heißt, man muss vor der Abtastung das Signal auf den wesentlichen Frequenzbereich bandpassfiltern. Da die Unterabtastung hauptsächlich bei sehr hochfrequenten, aber schmalbandigen Signalen benutzt wird, stellt die Filterung, z. B. durch ein steilflankiges Quarzfilter, kein Problem dar. Die Rekonstruktion des ursprünglichen hochfrequenten Signals aus den zeitdiskreten Signalwerten nach der Unterabtastung ist im Allgemeinen nicht möglich, da bei der Rekonstruktion immer das Nyquist-Band wiederhergestellt wird. Dieses liegt nach der Unterabtastung im niederfrequenten Bereich. Eine Rekonstruktion wäre nur dann möglich, wenn man das abgetastete Signal yn durch Einfügen von Nullwerten auf eine Abtastfrequenz überabtastet, die mindestens doppelt so groß ist wie die maximal vorkommende Frequenz im Bandpass-Signal y(t). Durch zeitdiskrete Filterung könnte man dann das Bandpass-Signal im hochfrequenten Nyquist-

5 Zeitdiskrete Signale

272

Band isolieren und rekonstruieren. Dies ist aber meist nicht sinnvoll, weil die Unterabtastung gerade deshalb angewendet wurde, um höhere Abtastfrequenzen zu umgehen. Die Unterabtastung ist auch im Zeitdiskreten möglich. Dabei nimmt man z. B. nur jeden r-ten Abtastwert für die weitere Verarbeitungskette. Damit reduziert sich die Abtastfrequenz auf 1/r der alten Abtastfrequenz. Voraussetzung ist wieder ein Bandpass-Signal, das man durch zeitdiskrete Filterung erreichen kann. Eine eventuelle Verschiebung des Signals im Frequenzbereich um f0 in positive bzw. negative Richtung erreicht man, wie bei der Betrachtung der Fourier-Transformation nachgewiesen, durch Modulation des Signals im Zeitbereich mit ej2πf0 t bzw. e−j2πf0 t . Die Unterabtastung eines amplitudenmodulierten Signals mit Projektion der Mittenfrequenz f0 auf die Frequenz 0 Hz entspricht der Demodulation des Signals. •

5.5

Spektralanalyse

Die betrachteten Transformationen eignen sich in der bisherigen Form nicht unmittelbar für eine Spektralanalyse auf Digitalrechnern, da im Bildbereich kontinuierliche Variablen verwendet werden. Zu diesem Zweck wird die diskrete Fourier-Transformation eingeführt, bei der zusätzlich zum Zeitbereich auch der Frequenzbereich diskretisiert wird.

5.5.1

Diskrete Fourier-Transformation (DFT)

In der Praxis ist die Fourier-Transformation zeitdiskreter Signale nicht anwendbar, denn bei der Ausführung auf einem Digitalrechner oder allgemein durch ein digitales System treten zwei Probleme auf: • Es können nur endlich viele Abtastwerte yn verarbeitet werden, da der Speicherplatz in einem Rechner endlich ist. • Neben der Zeitvariablen muss auch die Frequenzvariable diskretisiert werden, da der Rechner nur diskrete Zahlenwerte verarbeiten kann. Die beiden aufgezeigten Probleme lassen sich mittels geschickter Ansätze relativ einfach beheben. Man muss lediglich betrachten, was man bei der Diskretisierung „verloren“ hat. Das kontinuierliche Spektrum eines abgetasteten Signals lautet nach (5.62): Y∗ (Ω) =

∞ X

yn e−jΩn .

(5.140)

n=−∞

Praktisch kann das Signal yn nur während eines endlichen Intervalls T0 beobachtet werden, in welchem lediglich N Abtastwerte enthalten sind. Die Beobachtungszeit T0 = N · tA

(5.141)

5.5 Spektralanalyse

273

entspricht dem Produkt der Abtastzeit tA mit der Anzahl N der betrachteten Abtastwerte. Bei insgesamt N Abtastwerten läuft der Zählindex n für den Zeitparameter von 0 bis N − 1. Denkt man sich die Funktion außerhalb der N Abtastwerte im Zeitbereich periodisch fortgesetzt, ist damit auch das Spektrum im Frequenzbereich diskret. Zudem erinnere man sich an die Tatsache, dass das Spektrum eines zeitdiskreten Signals periodisch mit der Periode fA ist. Deshalb reicht zur Beschreibung des Spektrums eine einzige Periode aus. Bei der Frequenzdiskretisierung wird eine Periode des Spektrums durch endlich viele Spektrallinien beschrieben. Ihre Anzahl ist zwar grundsätzlich beliebig wählbar, aber es ist günstig, im Spektralbereich dieselbe Anzahl N von Stützstellen wie im Zeitbereich zu wählen. Bei Verwendung der Abtastfrequenz fA = t−1 A ist die Auflösung des Spektrums oder Frequenzauflösung durch die Beobachtungsfrequenz gegeben: ∆f =

fA 1 1 = . = N N tA T0

(5.142)

Setzt man die Bedingung 0 ≤ n ≤ N − 1 für das beschränkte Zeitintervall in Gleichung (5.62) ein und diskretisiert man die normierte Kreisfrequenz mit fk = k ∆f auf Ωk =

2πk∆f 2πktA 2πk 2πfk = = = , 1/tA 1/tA N tA N

(5.143)

so erhält man die diskrete Fourier-Transformation (DFT) als rechnertaugliche Näherung der Fourier-Transformation: Yk =

N −1 X n=0

yn e−j2πkn/N ,

k = 0, . . . , N − 1 .

(5.144)

Bemerkung 5.24 Durch die Bedingung 0 ≤ k ≤ N − 1 wird das Nyquist-Band nicht mehr, wie bisher, als ein um die Frequenz null symmetrisches Band betrachtet. Die Indizes bzw. die dementsprechenden Amplitudenwerte werden stattdessen über eine Periode betrachtet, welche bei der Frequenz null beginnt. Aufgrund der periodischen Fortsetzung von yn bzw. Yk bleiben die Summationsergebnisse in (5.144) unverändert, • wenn von 0, . . . , N − 1 anstelle von − N2 , . . . , N2 − 1 summiert wird. Es stellt sich die Frage nach der Rücktransformation in den Zeitbereich. Bei der Fourier-Transformation zeitdiskreter Signale wird dies durch Integration über die frequenzkontinuierliche Spektralfunktion Y∗ (Ω) erreicht; hier sind dagegen lediglich diskrete Spektralwerte Yk verfügbar. Man erinnert sich an die Fourier-Reihe, bei der die Zeitfunktion als mit den „Spektralwerten“ ck gewichtete Summe von Exponentialfunktionen dargestellt wird. Entsprechend kann man die Zeitfolge ebenfalls als Summe angeben. Zur Berechnung der zu Yk gehörigen Zeitfolge zu einem bestimmten Zeitpunkt

5 Zeitdiskrete Signale

274

l = t/tA multipliziert man (5.144) mit ej2πkl/N und summiert über alle N Frequenzwerte: N −1 X

Yk ej2πkl/N =

−1 N −1 N X X

yn e−j2πk(n−l)/N

(5.145)

k=0 n=0

k=0

=

N −1 X

yn

n=0

=

N −1 X

N −1 X

e−j2πk(n−l)/N

(5.146)

k=0

yn N δnl = N yl .

(5.147)

n=0

Mit n = l ergibt sich daraus die inverse diskrete Fourier-Transformation (IDFT): yn =

N −1 1 X Yk ej2πkn/N . N

(5.148)

k=0

Durch die bisherigen Ausführungen ist die folgende Definition gerechtfertigt. Definition 5.2 Diskrete Fourier-Transformation (DFT) Als diskrete Fourier-Transformation bezeichnet man die Wertepaare yn

◦−•

Yk ,

k, n = 0, . . . , N − 1 ,

(5.149)

die durch folgende Beziehungen verbunden sind: Yk =

N −1 X

yn e−j2πkn/N =

n=0

yn =

N −1 X

kn yn wN

N −1 N −1 1 X 1 X −kn Yk ej2πkn/N = Yk wN N N k=0

(5.150)

n=0

(5.151)

k=0

mit wN = e−j2π/N .

(5.152)

n Die Faktoren wN , n = 0, . . . , N − 1, sind die N komplexen Wurzeln der Gleichung N n wN = 1. Es gilt: |wN | = 1.

Bemerkung 5.25 1. Durch Betrachten der Definitionsgleichung wird offensichtlich, dass es sich bei der diskreten Fourier-Transformation um eine lineare Transformation handelt.

5.5 Spektralanalyse

275

2. Für die Beziehung yn ◦−• Yk benutzt man oft auch die Operatorschreibweise DFT{yn } = Yk .

(5.153)

Ebenso verstehen sich die Bezeichnungen IDFT{Yk } bzw. DFT−1 {Yk }. 3. Die diskrete Fourier-Transformation ist umkehrbar eindeutig. Man kann unbedenklich und beliebig oft vom Zeitbereich in den Frequenzbereich und umgekehrt wechseln. • Abbildung 5.27 veranschaulicht die DFT schematisch am Beispiel eines kausalen Signals y(t) (a). Die Abtastung mit der Impulsreihe (b) bewirkt eine periodische Fortsetzung des Spektrums (c), die im abgebildeten Fall mit einem Aliasingfehler einhergeht. Die Multiplikation mit dem Fenstersignal (d) begrenzt die Anzahl der Abtastwerte auf N (e). Im Fourier-Bereich korrespondiert diese Fensterung mit einer Faltung mit einem Sinc-Signal, die zu einer Verschmierung des Spektrums (Leckeffekt) führt. Schließlich erfolgt eine Diskretisierung des Spektrums durch Multiplikation mit einer Impulsreihe (f), was im Zeitbereich eine periodische Fortsetzung des Signals zur Folge hat. Das resultierende Spektrum Yk enthält Informationen lediglich an diskreten Frequenzen, was anschaulich als Lattenzaun-Effekt (engl. picket-fence effect) bezeichnet wird.

Beispiel 5.26: DFT Eine Wertefolge mit N = 6 laute: y0 = 1 ,

y1 = 1 ,

y2 = 0 ,

y3 = 0 ,

y4 = 0 ,

y5 = 1 .

(5.154)

Mit (5.150) folgt die diskrete Fourier-Transformierte: Yk =

5 X

yn e−jπkn/3 = 1 + e−jπk/3 + e−jπk5/3

(5.155)

n=0

π  = 1 + e−jπk/3 + ejπk/3 = 1 + 2 cos k . 3

(5.156)

Dass die Werte Yk reell sind, ist nicht überraschend, da die Folge yn eine reelle und nach periodischer Fortsetzung gerade Folge ist, vgl. Abb. 5.26. • yn

s

s

0

1

s s

s

s

2

3

4

5

Abbildung 5.26: Wertefolge vor periodischer Wiederholung.

n

276

5 Zeitdiskrete Signale

Abbildung 5.27: Grafische Veranschaulichung der DFT.

5.5 Spektralanalyse

277

Beispiel 5.27: DFT eines Signals Abbildung 5.28 zeigt im oberen Bild das aus einem Gleichanteil und drei harmonischen Schwingungen mit den Frequenzen f1 = 14 Hz, f2 = 31,5 Hz und f3 = 40 Hz bestehende Signal y(t) = 0,2 + 0,1 sin(2πf1 t) + 0,6 sin(2πf2 t) + 0,5 sin(2πf3 t)

(5.157)

sowie das Ergebnis seiner Abtastung mit der Frequenz fA = 100 Hz. Da das Abtasttheorem eingehalten wird, kommt es zu keinem Bandüberlappungsfehler. Das DFT-Spektrum entsteht durch Abtastung des kontinuierlichen DTFT-Spektrums des gefensterten Signals (unteres Bild). Am DTFT-Spektrum erkennt man deutlich den Leckeffekt. Dessen Abtastung illustriert den Lattenzaun-Effekt. •

1 0,5 0 –0,5 –1

0

0,1

0,2

0,3

0,4

0,5

0,6

20 15 10 5 0

0

10

20

30

40

50

Abbildung 5.28: DFT eines Signals: diskrete Werte im Zeit- und Frequenzbereich.

Betrachtet man den Rechenaufwand für eine DFT, so erkennt man, dass man für N zu transformierende Werte N 2 komplexe Multiplikationen und Additionen benötigt. Durch geschickte Umsortierung der Multiplikationen und Additionen erhält man einen Algorithmus, der lediglich N · ld N solche Operationen benötigt: die schnelle Fourier-Transformation oder fast Fourier transform (FFT), welche im nächsten Abschnitt behandelt wird.

5 Zeitdiskrete Signale

278

5.5.2

Schnelle Fourier-Transformation (FFT)

Die schnelle Fourier-Transformation (FFT) führt die identische Rechnung durch wie die diskrete Fourier-Transformation. Lediglich die Zahl der Rechenoperationen ist durch Ausnutzung von Symmetrien erheblich kleiner, wodurch sie für die Implementierung besser geeignet ist. Der Zusammenhang zwischen den Folgen yn und Yk soll an einigen Beispielen klar gemacht werden. Dazu beginnen wir mit der Betrachtung einer 2-Punkte-FFT, dann folgt eine 4-Punkte-FFT usw. 2-Punkte-FFT. Yk = y0 + y1 e−jπk

(5.158)

4-Punkte-FFT. k

Yk = y0 + y1 e−jπ 2 + y2 e−jπk + y3 e−j3πk/2   k = y0 + y2 e−jπk + e−jπ 2 y1 + y3 e−jπk

(5.159) (5.160)

Man erkennt, dass sich die 4-Punkte-FFT aus zwei gewichteten 2-Punkte-FFT zusammensetzt. 8-Punkte-FFT. k

k

k

Yk = y0 + y1 e−jπ 4 + y2 e−jπ 2 + · · · + y7 e−j7π 4   = y0 + y4 e−jπk + e−jπk/4 y1 + y5 e−jπk +   + e−jπk/2 y2 + y6 e−jπk + e−j3πk/4 y3 + y7 e−jπk h i  = y0 + y4 e−jπk + e−jπk/2 y2 + y6 e−jπk + h i  + e−jπk/4 y1 + y5 e−jπk + e−jπk/2 y3 + y7 e−jπk

(5.161) (5.162)

(5.163)

Hier stellt man fest, dass eine 8-Punkte-FFT entweder als 4 mal 2-Punkte-FFT oder als 2 mal 4-Punkte-FFT, die ihrerseits selbst aus 2 mal 2-Punkte-FFT bestehen, umgeschrieben werden kann. Eine 16-Punkte-FFT ließe sich so in 2 mal 8-Punkte-FFT, die jeweils in 2 mal 4-Punkte-FFT, die wiederum jeweils in 2 mal 2-Punkte-FFT aufgeteilt sind, zerlegen. Man erkennt, dass zur Anwendung dieser Vereinfachungen der Umfang N einer FFT eine Zweierpotenz sein muss, d. h. N = 2n ,

n ∈ N.

(5.164)

Zur Anwendung der FFT auf eine Zeitfolge y0 , . . . , yN −1 bei N 6= 2n kann die Wertefolge auf die nächsthöhere Zweierpotenz „aufgefüllt“ werden.

5.5 Spektralanalyse

279

Man kann zeigen, dass der Rechenaufwand durch die Umstrukturierung auf N · ld N Multiplikationen und Additionen verringert wird. Dies macht sich aber erst ab der 16-Punkte-FFT bemerkbar. Vorher unterscheidet sich die Anzahl der Multiplikationen und Additionen zwischen DFT und FFT nicht. Betrachtet man noch einmal (5.163), so scheint die Reihenfolge der verwendeten Abtastwerte ohne Zusammenhang zu sein. Bei genauerem Hinsehen erkennt man jedoch, dass ein Zusammenhang besteht. Schreibt man den Index als Binärzahl und dreht diese Zahl um (bit reversal), so erhält man den Laufindex in binärer Schreibweise. Abtastwert Index binär bit reversal Laufindex

y0 0 000 000 0

y4 4 100 001 1

y2 2 010 010 2

y6 6 110 011 3

y1 1 001 100 4

y5 5 101 101 5

y3 3 011 110 6

y7 7 111 111 7

Zur Bestimmung des entsprechenden Abtastwertes geht man den Weg rückwärts und erhält so aus dem Laufindex den zu verwendenden Index. Die FFT besitzt exakt dieselben Eigenschaften wie die DFT, da dieselben Ergebnisse geliefert werden. Lediglich die Berechnung erfolgt schneller. Da uns in diesem Rahmen nur die Eigenschaften und Besonderheiten der „Zahlenfolgen“ und nicht deren Berechnungsweise interessiert, wird hier für eine genauere Herleitung und weitere Anmerkungen zur FFT auf z. B. [KK18] verwiesen.

5.5.3

Eigenschaften der DFT

In diesem Abschnitt werden einige Eigenschaften der DFT behandelt, um das Verständnis der Definitionsgleichung zu vertiefen und den Umgang mit dieser Transformation zu üben. Hierzu werden Zahlenfolgen x0 , . . . , xN −1 und y0 , . . . , yN −1 mit den zugehörigen diskreten Fourier-Transformierten X0 , . . . , XN −1 und Y0 , . . . , YN −1 vorgegeben: xn , yn ,

n = 0, . . . , N − 1

n = 0, . . . , N − 1

◦−•

◦−•

Xk , Yk ,

k = 0, . . . , N − 1 ,

k = 0, . . . , N − 1 .

(5.165) (5.166)

Zuerst werden einige Eigenschaften bewiesen, die sich bei einer Umdefinition der Wertefolge ergeben und sich meistens durch Nachrechnen unter Beachtung der Definitionsgleichung zeigen lassen. Satz 5.28: Eigenschaften der diskreten Fourier-Transformation Für die diskrete Fourier-Transformation ergeben sich folgende Eigenschaften: ∗ y−n

y−n

◦−•

◦−•

Yk∗ ,

(5.167)

Y−k .

(5.168) •

5 Zeitdiskrete Signale

280

Beweis 5.29 (Eigenschaften der diskreten Fourier-Transformation) Die erste Eigenschaft folgt wegen Yk∗ =

N −1 X n=0

∗ −j2π y−n 0 e

kn0 N

(5.169)

n0 =−(N −1)

N X

=

0 X

kn

yn∗ ej2π N = ∗ −j2π y−n 00 +N e

kn00 N

e−j2πk .

(5.170)

n00 =1

Aufgrund der Periodizität der DFT ist y−n00 +N = y−n00 . Außerdem kann die Summation wegen 0

N

y−N e−j2πk N = y0 e−j2πk N

(5.171)

geändert werden in Yk∗

=

N −1 X

∗ −j2πk y−n 00 e

n00 N

n00 =0

∗ = DFT{y−n }.

(5.172)

Die zweite Eigenschaft folgt ebenso aus der Definition durch den Ansatz Y−k =

N −1 X

−nk yn wN

(5.173)

n=0

durch einfache Umformungen. Satz 5.30: Faltungssatz der DFT Für die DFT der Faltung zweier Wertefolgen gilt: xn ∗ yn

◦−•

Xk · Yk .

(5.174) •

Beweis 5.31 (Faltungssatz der DFT) Zum Beweis des Faltungssatzes betrachte man zwei Wertefolgen xn ◦−• Xk ,

yn ◦−• Yk .

(5.175)

Dann berechnet sich die Rücktransformation durch xn =

N −1 kn 1 X Xk ej2π N N

bzw.

yn =

k=0

N −1 kn 1 X Yk ej2π N . N

(5.176)

k=0

Für das Faltungsprodukt ergibt sich daraus: xn ∗ yn =

N −1 X m=0

xm yn−m

(5.177)

5.5 Spektralanalyse

281

=

N −1 X m=0

N −1 km 1 X Xk ej2π N N k=0

!

N −1 l(n−m) 1 X Yl ej2π N N

! .

(5.178)

l=0

Durch Umsortieren der (endlichen) Summen folgt: xn ∗ yn = =

N −1 X l=0 N −1 X l=0

=

N −1 X l=0

N −1 N −1 X X (k−l)m 1 j2π ln N Y · e X · ej2π N l k N2 m=0

(5.179)

N −1 X 1 j2π ln N Y · e Xk · N δkl l N2

(5.180)

ln 1 Yl Xl · N ej2π N N2

(5.181)

k=0

k=0

= IDFT{Xk · Yk } .

(5.182)

Bemerkung 5.32 (Zyklische Faltung, Randeffekt) Bei der Faltung zweier Signale xn und yn mit Nx bzw. Ny Abtastwerten über den Faltungssatz der DFT (5.182) muss beachtet werden, dass die DFT sowohl die Signale als auch das Faltungsergebnis N -periodisch fortsetzt (Abb. 5.29). Dies re-

...

...

...

Abbildung 5.29: Zyklische Faltung bei Verwendung der DFT.

5 Zeitdiskrete Signale

282

sultiert in einer zyklischen Faltung, die i. Allg. von der herkömmlichen nichtzyklischen Faltung (6.18) im Zeitbereich abweicht. Um sicherzustellen, dass die Faltung bei Verwendung der DFT das gleiche Ergebnis wie die azyklische Faltung im Zeitbereich liefert, müssen die Signale xn und yn vor der Berechnung der DFT durch Hinzufügen von Nullen (Zero-Padding, vgl. Abschn. 5.5.7) auf die Länge N ≥ Nx + Ny − 1

(5.183)

verlängert werden. Der Fehler bei Nichtbeachtung dieser Regel wird als Randeffekt bezeichnet. • Satz 5.33: Parseval’sche Formel und Energiesatz Aus den oben bewiesenen Eigenschaften ergeben sich durch Einsetzen die Parseval’sche Formel und der Energiesatz der DFT: N −1 X

xn yn∗ =

n=0 N −1 X n=0

5.5.4

N −1 1 X Xk Yk∗ , N

(5.184)

N −1 1 X |Xk |2 . N

(5.185)

k=0

|xn |2 =

k=0



Auflösung im Zeit- und Frequenzbereich

Bei der Fourier-Transformation zeitdiskreter Signale wurde die Wahl der Abtastfrequenz fA diskutiert. Darüber hinaus ist bei der diskreten Fourier-Transformation (DFT) je nach Anwendung eine geeignete Frequenzauflösung ∆f zu wählen, und diese hängt nach (5.142) unmittelbar mit der Anzahl N der Abtastwerte zusammen. Um dies verständlich zu machen, werden zuerst einige Zusammenhänge wiederholt, um dann das Problem der Wahl von N anhand eines Beispiels zu erläutern. Mittels der Abtastfrequenz fA kann man die Abtastzeit tA bestimmen: tA =

1 . fA

(5.186)

Zusammen mit der Anzahl N der Abtastwerte ergibt sich nach (5.141) die Beobachtungszeit bzw. Beobachtungsdauer der diskreten Fourier-Transformation zu T0 = N · tA =

N . fA

(5.187)

Hieraus folgt aus (5.142) die Frequenzauflösung ∆f =

fA 1 1 = = N N tA T0

(5.188)

5.5 Spektralanalyse

283

Abbildung 5.30: Beziehungen zwischen Abtastzeit und Beobachtungszeit.

als Inverse der Beobachtungszeit. Diese Beziehungen sind in Abb. 5.30 verdeutlicht. Bei der Betrachtung der Auflösung im Zeit- und Frequenzbereich muss natürlich beachtet werden, dass bei einer Abtastung mit der Abtastfrequenz fA nur Frequenzen im Nyquist-Band [−fN , fN ] mit fN = f2A betrachtet werden können. Beispiel 5.34: Auflösung im Zeit- und Frequenzbereich Ein Signal y(t) besitze Spektralanteile im Frequenzbereich [2 Hz, 20 Hz]. Nach der Abtastung des Signals und der Bestimmung des Spektrums mit Hilfe der diskreten Fourier-Transformation (DFT) soll die Frequenzauflösung mindestens eine Feinheit von ∆fWunsch = 0,1 Hz besitzen. Aufgrund der Belegung des Spektrums Y (f ) ist zur Einhaltung des Abtasttheorems eine Abtastfrequenz fA > 40 Hz

(5.189)

zu wählen. Die Beobachtungszeit muss größer oder gleich der Inversen der Frequenzauflösung sein: T0 ≥

1 = 10 s . ∆fWunsch

(5.190)

Wählt man die Abtastfrequenz fA = 50 Hz, so folgt für die Anzahl der Abtastwerte N=

T0 = T0 · fA ≥ 500 tA

(5.191)

eine untere Schranke. Wählt man N = 512, so kann die DFT mit dem FFT-Algorithmus berechnet werden. • Anhand des Beispiels erkennt man eine Vorgehensweise, die sich in zwei Schritte gliedert: 1. Die Abtastzeit tA bzw. die Abtastfrequenz fA legt die Auflösung im Zeitbereich fest. Diese ist unter Betrachtung des Spektrums Y (f ) des abzutastenden Signals y(t) zu wählen. 2. Die Anzahl N der Abtastwerte legt zusammen mit der Abtastfrequenz fA die Beobachtungszeit und damit die Frequenzauflösung ∆f fest. Dabei bewirkt eine höhere Anzahl von Abtastwerten eine größere Beobachtungszeit und somit eine feinere Frequenzauflösung.

5 Zeitdiskrete Signale

284

5.5.5

DFT einer komplexen Schwingung ohne Leckeffekt

Betrachtet man Abtastwerte einer komplexen Schwingung der Frequenz f0 , yn = ej2πf0 ntA ,

(5.192)

wobei zunächst offen sein soll, in welchem Verhältnis die Schwingfrequenz f0 und die Abtastfrequenz fA zueinander stehen, so lautet die DFT unter Verwendung von N Werten: Yk =

N −1 X

kn

yn e−j2π N =

n=0

N −1 X

n

ej2π(f0 tA N −k) N ,

k = 0, . . . , N − 1 .

n=0

(5.193)

Über die Summenformel für die endliche geometrische Reihe mit α 6= 2πl, l ∈ Z, N −1 X n=0

N

ejαn =

N

N

(N −1) sin(α N2 ) ejα 2 e−jα 2 − ejα 2 1 − ejαN jα 2 , = · = e · 1 1 1 1 − ejα sin(α 21 ) ejα 2 e−jα 2 − ejα 2

(5.194)

ergibt sich aus (5.193) mit α = 2π f0 tANN −k 6= 2πl, l ∈ Z: N −1 N

Yk = ejπ(f0 tA N −k)

·

sin(π(f0 tA N − k)) , π (f0 tA N − k)) sin( N

k = 0, . . . , N − 1 .

(5.195)

Die so gewonnene Spektralfolge Yk wird zunächst für den Fall untersucht, dass das Verhältnis von Schwingfrequenz f0 und Frequenzauflösung ∆f ganzzahlig ist: f0 ! = f0 t A N = l ∆f

⇐⇒

f0 =

l = l · ∆f , N tA

l ∈ N.

(5.196)

Die Schwingfrequenz f0 passt genau in das diskrete Raster der Beobachtungsfrequenz ∆f . Dann folgt aus (5.195) Yk = ejπ(l−k)

N −1 N

·

sin(π(l − k)) . π (l − k)) sin( N

(5.197)

Der Zähler des Bruchs verschwindet für alle Werte von k, während der Nenner im Intervall 0 ≤ k ≤ N − 1 mit der Ausnahme k = l von null verschieden ist. Mit der Methode von L’Hôpital erhält man den Funktionswert an der Stelle k = l: sin(α) cos(α) = lim 1 α α =N. α→0 sin( ) α→0 N N cos( N ) lim

(5.198)

Damit ergibt sich aus (5.197) die Spektralfolge der komplexen Schwingung: Yk = N · δkl ,

0 ≤ k, l ≤ N − 1 .

(5.199)

5.5 Spektralanalyse

285

Abbildung 5.31: Spektralanalyse einer komplexen Schwingung mit Hilfe einer 16-Punkte-DFT 5 , d. h. l = 5, N = 16. und einem Frequenzverhältnis von ffA0 = 16

Abbildung 5.31 zeigt ein Beispiel, bei dem die Schwingfrequenz f0 ein ganzzahliges Vielfaches der Frequenzauflösung ∆f ist. Trotz des begrenzten Beobachtungsfensters von N Abtastwerten im Zeitbereich tritt kein Leckeffekt auf. Dies liegt daran, dass das Signal aufgrund der Abtastung im Frequenzbereich im Zeitbereich periodisch wiederholt wird. Wenn die Schwingfrequenz f0 genau in das diskrete Raster der Beobachtungsfrequenz ∆f passt, entsteht aufgrund der periodischen Fortsetzung kein Fehler durch das endliche Beobachtungsfenster. Es tritt kein Informationsverlust auf.

5.5.6

DFT einer komplexen Schwingung mit Leckeffekt

Andere Resultate ergeben sich, wenn (5.196) nicht erfüllt ist, also wenn die Schwingfrequenz f0 kein ganzzahliges Vielfaches der Frequenzauflösung ∆f ist. Dann ist l ∈ N,

f0 tA N = l + a ,

−0,5 < a ≤ 0,5 .

(5.200)

Die Schwingfrequenz f0 liegt dann nicht mehr im diskreten Raster der Beobachtungsfrequenz ∆f . Für die DFT der komplexen Schwingung ergibt sich: Yk = ejπ(l−k+a)

N −1 N

·

sin(π(l − k + a)) , π (l − k + a)) sin( N

k = 0, . . . , N − 1 .

(5.201)

Abbildung 5.32 zeigt die hieraus errechneten Spektralfolgen für verschiedene Werte a. Zur Veranschaulichung sind jeweils die kontinuierlichen Hüllkurven angedeutet. Für a = 0 wird diese Hüllkurve einmal im Maximum und sonst in den äquidistanten Nullstellen abgetastet. Das Ergebnis ist die im letzten Abschnitt diskutierte ideale Spektralanalyse, welche nicht durch den Leckeffekt beeinflusst ist. In den beiden anderen Fällen hingegen liegen die Nulldurchgänge der Hüllkurve zwischen den diskreten Frequenzpunkten der DFT. Daraus enstehen folgende Fehler: Zum einen wird die Hüllkurve nicht mehr in ihrem Maximum abgetastet, so dass sich zwei Hauptlinien ergeben, deren Beträge gegenüber N reduziert sind. Darüber hinaus entstehen an sämtlichen DFT-Rasterpunkten fehlerhafte Anteile, d. h. die Hauptspektrallinie „leckt“

5 Zeitdiskrete Signale

286 15 10 5 0

0

5

10

15

0

5

10

15

0

5

10

15

15 10 5 0

15 10 5 0

Abbildung 5.32: Verdeutlichung des Leckeffekts anhand einer 16-Punkte-DFT einer komplexen Schwingung.

durch alle Rasterpunkte hindurch. Aus diesem Grunde wird der beschriebene Fehler in Anlehnung an die englische Bezeichnung leakage auch als Leckeffekt bezeichnet. Der Leckeffekt lässt sich auch anschaulich im Zeitbereich erklären. Als Beispiel betrachtet man den in Abb. 5.33 dargestellten Realteil einer komplexen Schwingung. In diesem Fall beträgt die Schwingfrequenz ein Zwölftel der Abtastfrequenz f0 tA =

1 , 12

f0 =

1 fA , 12

(5.202)

woraus sich bei einer DFT-Länge von N = 16 wegen ∆f =

1 fA = fA N 16

(5.203)

aufgrund obiger Überlegungen ein Leckeffekt mit f0 tA N =

f0 fA 16 1 · = =1+ , fA ∆f 12 3

(5.204)

d. h. a=

1 , 3

(5.205)

5.5 Spektralanalyse

287

Periode Beobachtungsintervall

Abbildung 5.33: Erläuterung des Leckeffekts im Zeitbereich.

ergibt. Die periodische Wertefolge yn mit der Periodenlänge 12 tA führt bei periodischer Wiederholung nach 16 Abtastwerten (außerhalb des Beobachtungsintervalls) zu einer unstetigen Fortsetzung. Die Fourier-Analyse der periodisch fortgesetzten Funktion liefert Spektrallinien an den Vielfachen der Grundfrequenz ∆f =

1 fA 1 = = , N tA 16 tA 16

(5.206)

also an den diskreten Frequenzpunkten der DFT, was auf den Leckeffekt führt. Das von der Periode der Schwingung abweichende Beobachtungsintervall verfälscht bei der Multiplikation mit dem Beobachtungsfenster und der nachfolgenden periodischen Fortsetzung die Schwingung. Es stellt sich hier die Frage, wie groß der Fehler der DFT bei Auftreten des Leckeffekts werden kann. Hierzu werden zwei Fälle untersucht. 1. Das Maximum der DFT liegt bei der Frequenz l · ∆f , es müsste aber bei (l + a) · ∆f liegen. Da |a| ≤ 0,5 ist, entspricht der maximale Frequenzfehler der halben Frequenzauflösung Fmax {f } =

fA ∆f 1 = = . 2 2 N tA 2N

2. Der relative Fehler des maximalen DFT-Betrags ist durch sin(πa) sin(π a ) − N |Yl | − N N F {Y } = = N N gegeben. Der maximale Fehler liegt bei a = 0,5: 1 sin( π ) − N 2N . Fmax {Y } = F {Y } a=0,5 = N Mit N 

(5.207)

(5.208)

(5.209)

π 2

folgt hieraus 2N −N 2 = − 1 ≈ −0,36 . Fmax {Y } ≈ π N π

(5.210)

5 Zeitdiskrete Signale

288

Will man die Genauigkeit der DFT bei Auftreten des Leckeffekts erhöhen, so kann man durch Erhöhen der Anzahl N der Abtastwerte yn den Frequenzfehler verkleinern. Der maximale relative Amplitudenfehler bleibt unter der Voraussetzung, dass a sich nicht ändert, konstant. Er beträgt weiterhin maximal etwa 36 %. Für den Fall a = 0,5 wird das Verhältnis zwischen den Amplituden des Haupt- und des ersten Nebenzipfels sin(π(a+1)) Yl+1 sin(π a+1 sin(π Na ) N ) = = Yl sin(πa) sin(π a+1 ) mit sin(π(a + 1)) = − sin(πa) (5.211) a N sin(π N )

für N  a wie folgt abgeschätzt: Yl+1 π Na a 1 ≈ = Yl π a+1 a + 1 ≤ 3 , N

0 ≤ a ≤ 0,5 .

(5.212)

Bei manchen Signalen kann durch geschickte Auswahl der Abtastzeit tA erreicht werden, dass f0 tA N ∈ N

(5.213)

gilt. Dann tritt kein Leckeffekt auf. Dies ist aber nicht bei allen Signalen möglich, da normalerweise ein Signal nicht nur aus einer einzigen komplexen Schwingung, sondern aus einer Überlagerung verschiedener Schwingungen besteht. Bei den zeitdiskreten Signalen werden in Abschnitt 5.6 Möglichkeiten untersucht, mittels derer die Spektralfehler des Leckeffekts mit Hilfe von Fensterfunktionen reduziert werden können.

5.5.7

Zero-Padding

Bei einer Vergrößerung des Beobachtungsintervalls T0 , z. B. durch eine größere Anzahl N von Abtastwerten, wird der Frequenzfehler des Spektrums verringert. Dazu müssen allerdings zusätzliche Abtastwerte gemessen werden. Liegen diese aber nicht vor oder besteht keine Möglichkeit, sie nachträglich zu messen, so können lediglich andere Werte willkürlich hinzugefügt werden. Bei künstlichem Verlängern der Wertefolge yn durch Einfügen von M Nullen entstehen die Abtastwerte  yn für 0 ≤ n ≤ N − 1 0 . (5.214) yn = 0 für N ≤ n ≤ N + M − 1 Dies wird als Zero-Padding bezeichnet. Der Einfluss von Zero-Padding auf das Spektrum ergibt sich durch Berechnung der diskreten Fourier-Transformation Yk0 von yn0 : Yk0 =

N +M X−1

kn

yn0 e−j2π N +M =

n=0

N −1 X n=0

kn

yn e−j2π N +M ,

k = 0, . . . , N +M −1 . (5.215)

5.5 Spektralanalyse

289

Durch die Erhöhung der Beobachtungszeit T0 erhält man eine feinere Frequenzauflösung ∆f 0 . Die Abtastfrequenz fA wurde dabei nicht verändert, d. h. die beiden Spektren Yk und Yk0 erstrecken sich über dasselbe Nyquist-Band. Um die beiden Spektren Yk und Yk0 unterschiedlicher Auflösung vergleichen zu können, transformiert man den Index k: k0 = k ·

N . N +M

(5.216)

Der neue Frequenzindex k 0 ist damit eine rationale Zahl und es folgt Yk00 =

N −1 X

yn e−j2π

k0 n N

= Yk0 .

(5.217)

n=0

Die Spektren Yk0 und Yk sind identisch. Sie werden nur an unterschiedlichen Stellen abgetastet. Yk0 hat M Abtastwerte mehr als Yk . Die Einhüllende ist aber bei beiden Spektren gleich, denn das Anfügen von Nullen stellt keinen Informationsgewinn dar. Hebt man die Beschränkung auf endlich viele yn auf, d. h. betrachtet man nicht nur N , sondern unendlich viele Werte, so ist das Spektrum wegen der Zeitbegrenzung mit einem rechteckigen Fenster die Faltung des Spektrums der zeitlich unbeschränkten Abtastwerte mit einer dem Rechteckfenster entsprechenden Sinc-Funktion. Durch Anfügen der Nullen an die anzahlmäßig beschränkte Folge wird diese der unbeschränkten Folge besser angenähert, d. h. die Sinc-Funktion wird genauer dargestellt. Dies kann man in Abb. 5.32 erkennen, in der die Einhüllenden durch Zero-Padding erzeugt wurden. An die 16 Abtastwerte wurden dort 240 Nullen angefügt. Die resultierenden 256 Abtastwerte erzeugen ein Spektrum Yk0 , das das eigentliche Spektrum Y∗ (f ) deutlich besser annähert. Vorteilhaft ist das Zero-Padding immer dann, wenn man z. B. die Lage lokaler Maxima des Spektrums genauer bestimmen will. Beispiel 5.35: Zero-Padding In diesem Beispiel wird der Effekt des Zero-Padding anhand einer Schwingung verdeutlicht. In Abb. 5.34 ist in der oberen Hälfte eine Schwingung bestehend aus 16 Abtastwerten und deren diskrete Fourier-Transformierte dargestellt. In der unteren Bildhälfte wurde die Zeitfunktion durch Hinzufügen von Nullen auf 31 Werte erweitert und anschließend der DFT unterzogen. •

5.5.8

Periodogramm

Entsprechend dem Energiedichtespektrum bei zeitkontinuierlichen bzw. zeitdiskreten Signalen stellt das Periodogramm den Energieanteil der diskreten Frequenzen bei endlichen Folgen dar: Sk =

1 1 Yk · Yk∗ = |Yk |2 , N N

k = 0, . . . , N − 1 .

(5.218)

5 Zeitdiskrete Signale

290 1

15

0,5 10 0 5

−0,5 −1

0

5

10

15

1

0

0

5

10

15

0

10

20

30

15

0,5 10 0 5

−0,5 −1

0

10

20

30

0

Abbildung 5.34: Beispiel zur Anwendung des Zero-Paddings.

In der Anwendung wird zur besseren Bestimmung des Periodogramms meist über mehrere Spektren gemittelt. Dadurch werden die zufälligen Fehler herausgefiltert, sofern diese als mittelwertfrei bekannt sind [Pue15].

5.6

Verwendung von Fensterfunktionen

In Abschnitt 5.5.6 wurde die diskrete Fourier-Transformation einer komplexen, harmonischen Schwingung mit Leckeffekt behandelt. Betrachtet man die DFT Yk einer Signalfolge yn als Abtastung der Fourier-Transformierten Y∗R (f ) einer zeitbegrenzten Signalfolge ynR , so erhält man eine etwas allgemeinere Interpretation. Hierzu wird das zeitdiskrete Signal yn mit Hilfe der Rechteckfolge  1 für 0 ≤ n ≤ N − 1 rn = (5.219) 0 sonst durch Multiplikation auf das der DFT zugrunde liegende Zeitintervall begrenzt:  yn für 0 ≤ n ≤ N − 1 R yn = yn · rn = . (5.220) 0 sonst Die Fourier-Transformierte dieser zeitbegrenzten Folge ynR erhält man aus der Faltung der Fourier-Transformierten der Folge yn und der Rechteckfolge rn : Y∗R (f )

= Y∗ (f ) ∗ R∗ (f ) =

Z∞ −∞

Y∗ (ν) · R∗ (f − ν) dν .

(5.221)

5.6 Verwendung von Fensterfunktionen

291

Mit der Fourier-Transformierten der Rechteckfolge, die sich zu ∞ X

R∗ (f ) =

rn · e

−j2πf ntA

=

n=−∞

e−j2πf tA 2 1

e−j2πf tA 2

= e−j2πf tA

e−j2πf ntA =

n=0 N

N

=

N −1 X

·

N −1 2

1 − e−j2πf N tA 1 − e−j2πf tA

N

ej2πf tA 2 − e−j2πf tA 2 1

(5.222) (5.223)

1

ej2πf tA 2 − e−j2πf tA 2 sin(2πf tA N2 ) · sin(2πf tA 12 )

(5.224)

berechnet, und bei Vorliegen einer komplexen Schwingung yn = ej2πf0 ntA

(5.225)

mit der Fourier-Transformierten Y∗ (f ) =

1 tA

∞ X

 m δ f − f0 + tA m=−∞

(5.226)

ergibt sich die Faltungssumme Y∗R (f ) =

1 tA

∞ X

 m . R∗ f − f0 + tA m=−∞

(5.227)

Die Fourier-Transformierte der zeitbegrenzten komplexen Schwingung wird damit:   m N ∞ sin 2π(f −f + ) t X 0 A tA 2 1 −j2π(f−f0+tm ) tA N 2−1 A   . e · (5.228) Y∗R (f ) = m tA m=−∞ sin 2π(f −f + ) t 1 0

tA

A2

Durch Beschränkung auf das Nyquist-Band [0, t1A ) und Abtastung des Frequenzbereiches, f 7→ fk =

k , tA N

0 ≤ k ≤ N − 1,

(5.229)

erhält man die diskreten Spektralanteile:   k m N ∞ 1 X −j2π( Nkt −f0 + tm ) tA N2−1 sin 2π( N tA − f0 + tA ) tA 2 A A   · Yk = e tA m=−∞ sin 2π( NktA − f0 + tmA ) tA 12 =

∞ 1 X −jπ(k−f0 N tA +mN ) N −1 sin(π(k − f0 N tA + mN )) N . · e π tA m=−∞ (k − f0 N tA + mN ) sin N

(5.230)

(5.231)

Hierbei erkennt man, dass der bei der DFT entstehende Leckeffekt als Folge der Zeitbegrenzung durch ein Rechteckfenster zu interpretieren ist. Es liegt nun nahe, das

5 Zeitdiskrete Signale

292

Rechteckfenster durch eine andere, ebenfalls zeitbegrenzte Fensterfunktion zu ersetzen, die aber nun so optimiert wird, dass sich günstigere Spektraleigenschaften ergeben. Gehen die Werte der Fensterfunktion und möglichst viele ihrer Ableitungen am Fensterrand stark gegen null, so werden dort die Funktionssprünge, wie sie in Abb. 5.33 (Seite 287) dargestellt worden sind, gedämpft. Dies lässt sich anschaulich durch das Riemann-Lebesgue’sche Lemma (Satz 3.43) erklären.

5.6.1

Definition

Die folgende Definition des Begriffes „Fenster“ dient als Grundlage für weitere Betrachtungen. Definition 5.3 Zeitdiskretes Fenster Ein zeitdiskretes Fenster ist eine Folge wN,n , deren wesentliche Signalenergie in einem endlichen Zeitraum konzentriert ist. Die DFT einer mit einer Fensterfolge wN,n gefensterten Signalfolge yn entspricht dabei der Faltung der Fourier-Transformierten des zeitdiskreten Signals und des Fensters: , k = 0, . . . , N − 1 . (5.232) Yk = Y∗ (f ) ∗ W∗ (f ) k f = Nt

A

Das Ausmaß des Fehlers durch Auftreten des Leckeffekts hängt sehr stark von der Form der Fensterfunktion ab. Betrachtet man als Signalfolge die komplexe Schwingung yn = ej2πf0 ntA ,

n ∈ Z,

(5.233)

so entspricht die DFT Yk direkt der Abtastung der um f0 verschobenen zeitdiskreten Fourier-Transformierten der Fensterfunktion. Zur Anwendung der Fensterfunktionen multipliziert man die N abgetasteten Folgenwerte yn mit den Werten der Fensterfolge: ynw = yn · wN,n ,

0 ≤ n ≤ N − 1.

(5.234)

Für die folgenden Betrachtungen wird der Einfachheit halber ein gerades N verwendet. Des Weiteren sind die Amplitudengänge auf den Wert |W∗ (0)| normiert.

5.6.2

Rechteckfenster

Abbildung 5.35 zeigt das zeitdiskrete Rechteckfenster  wN,n =

1 0

für n = 0, . . . , N − 1 sonst

(5.235)

5.6 Verwendung von Fensterfunktionen

293

1 0,5 0

0

N

2N

1 0,5 0 0 −20 −40 −60 −80 −100

Abbildung 5.35: Zeitdiskretes Rechteckfenster.

und den Betrag seiner Fourier-Transformierten W∗ (f ) = e−j2πf tA

N −1 2

·

 sin 2πf tA N2  , sin 2πf tA 21

(5.236)

wobei W∗ (f ) betragsmäßig als Amplitudengang einmal linear (Mitte) und einmal logarithmisch in Dezibel (unten) aufgetragen wurde. Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Rechteckfensters liegt bei f=

1 N tA

bzw.

Ω=

2π . N

(5.237)

Dies ist ein Maß für die Breite des Hauptmaximums, die sich dann zu 2/(N tA ) ergibt. Die relative Höhe des ersten Nebenmaximums 3π 2 ) W∗ (f = 3 ) sin( 3π sin( 2N ) N 1 2 2N tA = ≈ 0,212 = b −13,5 dB = N W∗ (0) 3π ist ein Maß für den Einfluss des Leckeffekts.

(5.238)

5 Zeitdiskrete Signale

294

5.6.3

Dreieckfenster

Abbildung 5.36 zeigt das zeitdiskrete Dreieck- oder auch Bartlett-Fenster  2n für 0 ≤ n ≤ N2 − 1    N wN,n = 2(NN−n) für N2 ≤ n ≤ N − 1    0 sonst und den Betrag seiner Fourier-Transformierten  !2 sin 2πf tA N4 −jπf tA (N −1)  W∗ (f ) = e . sin 2πf tA 12

(5.239)

(5.240)

Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Dreieckfensters f=

2 N tA

bzw.

Ω=

4π N

(5.241)

liegt um den Faktor 2 weiter von null entfernt als die erste Nullstelle bei Verwendung des zeitdiskreten Rechteckfensters, d. h. das Hauptmaximum wird breiter. Wie sich zeigen wird, ist dies bei allen im Folgenden betrachteten Fensterfunktionen der Fall. Die relative Höhe des ersten Nebenmaximums ist jedoch verglichen mit dem Rechteckfenster beim Dreieckfenster kleiner. Man kann damit bereits erahnen, dass die Auswahl einer Fensterfunktion immer einen Kompromiss zwischen der Unterdrückung der Nebenmaxima und der Verbreiterung des Hauptmaximums darstellt. 1 0,5 0

0

N

1 0,5 0 0 −20 −40 −60 −80 −100

Abbildung 5.36: Zeitdiskretes Dreieckfenster.

2N

5.6 Verwendung von Fensterfunktionen

5.6.4

295

Hann-Fenster

Abbildung 5.37 zeigt das zeitdiskrete Hann-Fenster (1  2πn für 0 ≤ n ≤ N − 1 2 1 − cos N wN,n = 0 sonst

(5.242)

und den Betrag seiner Fourier-Transformierten  1 sin 2πf tA N2  + 2 sin 2πf tA 12     N N πN πN sin 2πf t sin 2πf t − + A 2 A 2 N −1 N −1 1 1    +  . + 1 1 π π 4 sin 2πf t 4 sin 2πf t − + A2 A2 N −1 N −1

−j2πf tA N 2−1

W∗ (f ) = e

(5.243)

(5.244)

Die erste Nullstelle im Spektrum des zeitdiskreten Hann-Fensters liegt wieder bei f=

2 N tA

bzw.

Ω=

4π . N

(5.245)

1 0,5 0

0

N

2N

1 0,5 0 0 −20 −40 −60 −80 −100

Abbildung 5.37: Zeitdiskretes Hann-Fenster.

5.6.5

Blackman-Fenster

Abbildung 5.38 zeigt das zeitdiskrete Blackman-Fenster    + 0,08 cos 4πn für 0 ≤ n ≤ N − 1 0,42 − 0,5 cos 2πn N N . (5.246) wN,n = 0 sonst

5 Zeitdiskrete Signale

296 1 0,5 0

0

N

2N

1

0,5

0 0 −20 −40 −60 −80 −100

Abbildung 5.38: Zeitdiskretes Blackman-Fenster.

Die erste Nullstelle der Fourier-Transformierten liegt bei f=

3 N tA

bzw.

Ω=

6π . N

(5.247)

Damit ist das Hauptmaximum beim zeitdiskreten Blackman-Fenster dreimal so breit wie beim Rechteckfenster. Dafür sind die Nebenmaxima deutlich stärker gedämpft.

5.6.6

Dolph-Tschebyschow-Fenster

Im Gegensatz zu den bisher behandelten Fenstern kann das Dolph-TschebyschowFenster nicht in einer geschlossenen Darstellung angegeben werden, sondern wird als zeitdiskrete, inverse Fourier-Transformierte eines idealen Frequenzgangs definiert. Dabei wird auf eine hohe Sperrdämpfung und ein schmales Hauptmaximum geachtet. Natürlich ist beim Entwurf darauf zu achten, dass das Fenster im Zeitbereich eine begrenzte Länge hat. Es gilt  −1 F {W∗ (f )} für n = 0, . . . , N − 1 wN,n = , (5.248) 0 sonst wobei W∗ (f ) den gewünschten Frequenzgang beschreibt, den man wie folgt wählt: h  i   e−jπf tA (N −1) · cosh (N − 1) arcosh cos(πf tA ) für 0 ≤ f < fg cos(πfg tA ) h  i W∗ (f ) = .  e−jπf tA (N −1) · cos (N − 1) arccos cos(πf tA ) für fg ≤ f < f2A cos(πfg tA ) Für eine genauere Beschreibung sei auf [KK18, Kro91] verwiesen.

5.6 Verwendung von Fensterfunktionen

5.6.7

297

Zeitdiskretes Gauß-Fenster

Bei der Berechnung und Herleitung des Zeitdauer-Bandbreite-Produktes (vgl. Abschn. 3.8.1) hatten wir den Gauß-Impuls als die Funktion mit dem minimalen ZeitdauerBandbreite-Produkt erkannt. Der zeitkontinuierliche Gauß-Impuls (3.307) wird als Basis der Definition des zeitdiskreten Gauß-Fensters herangezogen. Zur Erzeugung einer endlichen Funktion ist diese Gauß-Funktion noch mit einem Rechteckfenster zu multiplizieren, was zu einem rechteckgefensterten Gauß-Fenster führt. Diskretisiert man die zeitkontinuierliche Gauß-Funktion, so erhält man das zeitdiskrete rechteckgefensterte Gauß-Signal: ( wN,n =

e−a(n− 0

N −1 2 2 )

für n = 0, . . . , N − 1 sonst

.

(5.249)

Für a = 20 erhält man aus dieser Konstruktion den in Abb. 5.39 oben dargestellten Signalverlauf. In den beiden unteren Abbildungen ist der Amplitudengang linear und logarithmisch in Dezibel eingezeichnet. 1 0,5 0

0

N

2N

1 0,5 0 0 −20 −40 −60 −80

Abbildung 5.39: Zeitdiskretes rechteckgefenstertes Gauß-Fenster für a = 20.

Über den Skalierungsfaktor a kann die Breite des Gauß-Fensters beeinflusst werden. Einer wachsenden Zeitdauer entspricht dabei eine abnehmende Bandbreite und umgekehrt. Zur Verdeutlichung sind in Abb. 5.40 für den Fall a = 40 noch einmal der Signalverlauf und der Amplitudengang eingezeichnet. Das Hauptmaximum ist breiter geworden – bei einer stärkeren Dämpfung der Nebenminima.

5 Zeitdiskrete Signale

298 1 0,5 0

0

N

2N

1 0,5 0 0 −20 −40 −60 −80

Abbildung 5.40: Zeitdiskretes rechteckgefenstertes Gauß-Fenster für a = 40.

5.6.8

Zusammenfassung

Im Vergleich der traditionellen, in geschlossener Form darstellbaren Fensterfunktionen zeigt sich, dass Hann- und Blackman-Fenster in der Praxis sehr gute Ergebnisse liefern. Dabei weist das Blackman-Fenster die größte Sperrdämpfung auf. Dies ist aber mit dem breitesten Durchlassbereich verbunden, was mit dem schmaleren Verlauf im Zeitbereich im Einklang steht. Ein Dolph-Tschebyschow-Fenster ist den klassischen Fenstern in der Stärke der Sperrdämpfung und in der Breite des Hauptmaximums überlegen. Dies erkauft man sich jedoch mit einem deutlich höheren Entwurfsaufwand. Beim zeitdiskreten Gauß-Impuls wird die Sperrdämpfung durch das überlagerte Rechteckfenster verringert. Die Ergebnisse sind aber dennoch vergleichbar mit denen des Blackman-Fensters. Abschließend wird die Leistungsfähigkeit von Fensterfunktionen an einem Beispiel gezeigt. Beispiel 5.36: Anwendung von Fensterfunktionen Die Funktion y(t) aus Abschnitt 3.7.1, die aus zwei harmonischen Schwingungen stark unterschiedlicher Amplitude bei benachbarten Frequenzen besteht, soll mit Hilfe einer DFT im Spektralbereich analysiert werden. Dabei wird das Signal y(t) = A1 · sin(2πf1 t) + A2 · sin(2πf2 t)

(5.250)

mit A1 = 1 ,

A2 = 0,01 ,

f1 = 10,5 Hz

und

f2 = 14 Hz

5.6 Verwendung von Fensterfunktionen 0 −10 −20 −30 −40 −50 −60 −70 −80 0 −10 −20 −30 −40 −50 −60 −70 −80

299

Spektrum der zeitkontinuierlichen Funktion

0

10

20

30

40

50

DFT mit Hann−Fenster

0

10

20

30

40

50

DFT mit rechteckgefenstertem Gauß−Fenster, a=15 0 −10 −20 −30 −40 −50 −60 −70 −80 0 10 20 30 40 50

0 −10 −20 −30 −40 −50 −60 −70 −80 0 −10 −20 −30 −40 −50 −60 −70 −80

DFT mit Rechteckfenster

0

10

20

30

40

50

DFT mit Blackman−Fenster

0

10

20

30

40

50

DFT mit rechteckgefenstertem Gauß−Fenster, a=25 0 −10 −20 −30 −40 −50 −60 −70 −80 0 10 20 30 40 50

Abbildung 5.41: Betragsspektrum des kontinuierlichen Signals und DFT-Betragsspektren nach Anwendung unterschiedlicher Fensterfunktionen.

mit der Abtastfrequenz fA = 100 Hz und einem Umfang von N = 128 Abtastpunkten aufgenommen. Abbildung 5.41 zeigt das Betragsspektrum des kontinuierlichen Signals y(t) sowie die nach Multiplikation des Signals mit verschiedenen Fensterfunktionen – einem Rechteckfenster, einem Hann-Fenster, einem Blackman-Fenster sowie einem rechteckgefensterten Gauß-Fenster – resultierenden DFT-Betragsspektren. Die Spektren bei Anwendung des rechteckgefensterten Gauß-Fensters sind für zwei verschiedene Werte des Parameters a aufgetragen. Man sieht deutlich, wie durch die Wahl des Parameters die Genauigkeit der Frequenzanalyse beeinflusst wird. Für a = 15 ist das Gauß-Fenster im Zeitbereich breiter. Dafür konvergiert es im Frequenzbereich stärker. Im Spektrum des kontinuierlichen Signals erkennt man die beiden Spektralanteile der harmonischen Schwingungen. Im DFT-Spektrum nach Anwendung des Rechteckfensters verschmieren aufgrund des Leckeffekts die beiden Spektralanteile. Der schwächere Anteil ist nicht mehr zu erkennen.

5 Zeitdiskrete Signale

300

Bei Anwendung des Hann-, Blackman- und Gauß-Fensters treten drei Effekte auf: 1. Der schwächere Spektralanteil ist zu erkennen, wenn auch nur schwach. 2. Im Sperrbereich tritt eine deutlich höhere Dämpfung auf. 3. Der starke Spektralanteil wird aufgrund der größeren Hauptmaxima breiter. Mit Hilfe dieses Beispiels lässt sich auch ein Vergleich zwischen Hann-, Blackmanund Gauß-Fenster anstellen. •

5.7

Weitere diskrete Transformationen

Für die bis jetzt vorgestellten Transformationen wurde das zugrunde liegende orthonormale Funktionensystem immer aus komplexen Exponentialfunktionen aufgebaut. Diese Exponentialfunktionen haben aber den Nachteil, dass sie sich schlecht auf einem Digitalrechner berechnen lassen. Vorteilhaft sind daher orthonormale Funktionensysteme, die den Rechenaufwand wesentlich reduzieren.

5.7.1

Walsh-Transformation

Ein orthonormales Funktionensystem, bei dem nur zwei binäre reelle Funktionswerte auftreten, sind die Walsh-Funktionen. Zu deren Definition teilt man das Zeitintervall [0, 1] in 2n Teilintervalle gleicher Länge, die mit i = 0, . . . , 2n − 1 indiziert sind. Die Teilintervallnummer lässt sich als Binärzahl schreiben: (i)10 = (in , . . . , i1 )2 .

(5.251)

Ebenso stellt man auch eine „verallgemeinerte Frequenz“ k als Binärzahl dar, die auf eine bestimmte Art die Nulldurchgänge der Walsh-Funktionen bestimmt und deren Bedeutung später veranschaulicht wird: (k)10 = (0, kn , kn−1 , . . . , k1 )2 .

(5.252)

Dann definiert man den Begriff der Walsh-Funktion wie folgt. Definition 5.4 Walsh-Funktionen Die Walsh-Funktionen in der sequenziellen Anordnung walw (k, t) werden im Intervall [0, 1] definiert und außerhalb dieses Intervalles periodisch fortgesetzt. Hierzu setzt man für ti ≤ t < ti+1 , d. h. im i-ten Teilintervall, n P

walw (k, t) = (−1)l=1

(kl ⊕kl+1 ) in−l+1

,

ti ≤ t < ti+1 ,

wobei ⊕ die Exklusiv-Oder-Verknüpfung (XOR) bezeichnet.

(5.253)

5.7 Weitere diskrete Transformationen

301

Die Walsh-Funktionen nehmen nur Funktionswerte aus {1, −1} an und (walw (k, t))k bildet ein orthonormales Funktionensystem in L2 ([0, 1]), d. h. es gilt Z1 walw (i, t) walw (j, t) dt = δij .

(5.254)

0

Mit Hilfe dieses Orthonormalsystems approximiert man die Funktion y(t) und erhält Koeffizienten Y0 , . . . , YN −1 , die in Analogie zur Fourier-Reihe als Spektralanteile der Funktion interpretiert werden können.

Bemerkung 5.37 Durch einen zusätzlichen Index wird die unterschiedliche Darstellung verschiedener Systeme von Walsh-Funktionen angegeben. Verschiedene Indizes deuten darauf hin, dass bei gleicher Ordnung k die Reihenfolge der Walsh-Funktionen unterschiedlich ist. So repräsentiert ein tiefgestellter Index w die sequenzielle Reihenfolge, wie sie in Abb. 5.42 (links) dargestellt ist. • 1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

0

1/8 1/4 3/8 1/2 5/8 3/4 7/8

1

0

1/8 1/4 3/8 1/2 5/8 3/4 7/8

1

Abbildung 5.42: Analogie zwischen den Walsh-Funktionen (links) und dem Realteil der Fourier-Funktionen (rechts).

5 Zeitdiskrete Signale

302

Walsh-Funktionen weisen, wie in Abb. 5.42 erkennbar, eine unmittelbare Analogie zu den Fourier-Funktionen auf. Die „verallgemeinerte Frequenz“ k lässt sich als Zahl der Nulldurchgänge im Zeitbereich 0 < t < 1 ansehen und wird als „zero-crossings per second“ (zps) bezeichnet. Bemerkung 5.38 1. Neben der sequenziellen Anordnung gibt es auch Walsh-Funktionen in der natürlichen Anordnung waln (k, t). Sie sind zwar einfacher zu berechnen, doch es fehlt ihnen die direkte Analogie zu den Fourier-Funktionen in Abb. 5.42. 2. Die geraden und ungeraden Walsh-Funktionen können entsprechend der Sinus- und Cosinusfunktion aufgeteilt werden in calw (sk , t) = walw (k, t) ,

k = 0, 2, 4, . . . ,

sk = k/2 ,

(5.255)

salw (sk , t) = walw (k, t) ,

k = 1, 3, 5, . . . ,

sk = (k + 1)/2 .

(5.256)

3. Das Walsh-Leistungsspektrum Sk wird entsprechend dem Periodogramm der diskreten Fourier-Transformation berechnet, Sk =

1 Yk · Yk∗ , N

k = 0, . . . , N − 1 .

(5.257)

Es handelt sich um ein Linienspektrum. 4. Der große Vorteil der Walsh-Transformation liegt in der einfachen Berechnung, was sich insbesondere bei einer großen Zahl von Teilintervallen, z. B. bei Anwendungen in der Bildverarbeitung, als nützlich erweist. Eine Filterung im Frequenzbereich ist aber nicht in der Art möglich, wie dies bei der Fourier-Transformation der Fall ist. Die Faltung im Zeitbereich ist nicht gleich der Multiplikation im Frequenzbereich. Die Walsh-Transformation ist deshalb auf die Berechnung und die Analyse von Spektren beschränkt. Durch die nichtäquidistanten Nulldurchgänge und die abschnittsweise konstanten Funktionswerte enthält das Walsh-Spektrum zusätzliche Störanteile. Die meisten Anwendungen werden dadurch aber nur wenig beeinträchtigt. • Im folgenden Beispiel wird die Anwendung der Walsh-Transformation demonstriert. Beispiel 5.39: Vergleich von DFT und Walsh-Transformation Betrachtet wird das Signal in Abb. 5.43, welches aus zwei Schwingungen der Frequenzen 17 Hz und 40 Hz mit den Amplituden 1 bzw. 21 aufgebaut ist. Zur Analyse wird das Signal mit N = 256 Abtastwerten diskretisiert: yn = sin(2π · 17 Hz · n tA ) +

1 sin(2π · 40 Hz · n tA ) . 2

(5.258)

Die Analyse des Signals ergibt die Frequenzanteile |Yk | für die DFT und |Wk | für die Walsh-Transformation. Beide Spektren sind in Abb. 5.44 dargestellt. Man er-

5.7 Weitere diskrete Transformationen

303

1,5 1 0,5 0 −0,5 −1 −1,5

0

0,2

0,4

0,6

0,8

1

Abbildung 5.43: Testsignal zum Vergleich der DFT und der Walsh-Transformation. 15000

15000

10000

10000

5000

5000

0

0

50

100

0

0

50

100

Abbildung 5.44: Spektren des Signals bei Anwendung der DFT und der Walsh-Transformation.

kennt, dass die Walsh-Transformation das Fourier-Spektrum in diesem Fall annähert. Im Vergleich zur Fourier-Transformation ist die Rechnung mit Walsh-Funktionen deutlich aufwandsärmer. Jedoch muss darauf hingewiesen werden, dass die Approximation nicht immer gute Übereinstimmungen liefert. Deutlich sind bereits hier Abweichungen und fälschlich detektierte Spektralanteile zu erkennen. •

5.7.2

Allgemeine diskrete Transformation

Ausgehend von der DFT wird eine allgemeine diskrete Transformation definiert. Definition 5.5 Allgemeine diskrete Transformation −1 Mit einem orthonormalen Funktionensystem {fn [k]}N n=0 wird die allgemeine diskrete Transformation wie folgt definiert:

Yk =

N −1 X n=0

yn fn [k] ,

k = 0, . . . , N − 1 .

(5.259)

5 Zeitdiskrete Signale

304 Mit der Transformationsmatrix  f0 [0] f1 [0]  f0 [1] f 1 [1]  F= .. ..  . .

... ... .. .

fN −1 [0] fN −1 [1] .. .

    

(5.260)

f0 [N − 1] f1 [N − 1] . . . fN −1 [N − 1] lässt sich die Transformation in Matrixschreibweise formulieren: Y = Fy,

y = F−1 Y .

(5.261)

Beispiel 5.40: Allgemeine diskrete Transformation Für die diskrete Fourier-Transformation (DFT) gilt dabei beispielsweise kn

fn [k] = e−j2π N . Wählt man stattdessen  n fn [k] = walw k, , N

(5.262)

(5.263)

so erhält man die Walsh-Transformation. Dann bezeichnet man obige Transformationsmatrix F als Hadamard-Matrix H :   1 1 ... 1  1 1 . . . walw N − 1, N1    (5.264) H=. . . .. .. ..   .. . .   1 walw 1, NN−1 . . . walw N − 1, NN−1 Die Inverse der Hadamard-Matrix H−1 =

1 H N

(5.265)

lässt sich einfach berechnen. Dadurch kann die Berechnung der Walsh-Transformation auf Multiplikationen mit ±1 und Additionen beschränkt werden. •

5.8 Aufgaben

5.8

305

Aufgaben

Aufgabe 5.1: Rekonstruktionsfilter Ein zeitkontinuierliches Signal y(t) wird mit der Abtastfrequenz fA ideal zu y∗ (t) abgetastet und anschließend mit einem Rekonstruktionsfilter mit dem Frequenzgang G(f ) rekonstruiert. Dabei soll das ursprüngliche Signal ohne Fehler wiedergewonnen werden. Das bandbegrenzte Signal y(t), das oberhalb von 20 kHz keine Spektralanteile mehr besitzt, lässt sich durch das Spektrum in Abbildung 5.45 beschreiben.

Abbildung 5.45: Spektrum des Signals y(t).

Für die Abtastfrequenz fA stehen folgende Frequenzen zur Verfügung: (i) fA = 36 kHz

(ii) fA = 44 kHz

(iii) fA = 64 kHz

(a) Wählen Sie aus den drei gegebenen Abtastfrequenzen die niedrigste aus, so dass eine exakte Rekonstruktion des ursprünglichen Signals y(t) möglich ist. Begründen Sie Ihre Wahl. Zur Rekonstruktion stehen Filter mit den Frequenzgängen G(f ) in Abbildung 5.46 zur Verfügung.

Abbildung 5.46: Frequenzgänge der Rekonstruktionsfilter.

(b) Entscheiden Sie sich für eines der gegebenen Interpolationsfilter G1 (f ), G2 (f ) oder G3 (f ), mit dem eine exakte Rekonstruktion mit der in Teilaufgabe (a) gewählten Abtastfrequenz gelingt. Begründen Sie Ihre Wahl. (c) Skizzieren Sie für Ihre Wahl der Abtastfrequenz aus Teilaufgabe (a) und des Rekonstruktionsfilters aus Teilaufgabe (b) das Spektrum des abgetasteten Signals y∗ (t) und den Frequenzgang des Rekonstruktionsfilters für |f | < 80 kHz.

5 Zeitdiskrete Signale

306 Aufgabe 5.2: Unterabtastung

Ein reelles Signal besitzt im Frequenzband von 101 bis 112 kHz Spektralanteile. Spiegeln folgende Abtastfrequenzen diesen Frequenzbereich in das Nyquist-Band? 1) 15 kHz 2) 20 kHz 3) 25 kHz 4) 30 kHz Aufgabe 5.3: Signal nach Unterabtastung Ein Bandpasssignal y(t) mit der Mittenfrequenz f0 und der Bandbreite B soll durch Unterabtastung demoduliert werden. Die Spektren sind im Folgenden jeweils im Bereich −f0 ≤ f ≤ f0 zu zeichnen. (a) Das Signal y(t) wird mit der Frequenz fA = 49 f0 abgetastet. Zeichnen Sie das Spektrum des abgetasteten Signals yn . Welche Bedingung muss gelten, damit es zu keiner Überschneidung von Teilspektren kommt? (b) Das abgetastete Signal yn wird nun mit der Funktion mn = (−j)n moduliert: xn = yn · mn = yn · (−j)n . Zeichnen Sie das Spektrum von xn . (c) Zum Schluss wird das Signal xn durch einen idealen Tiefpass mit der Grenzfrequenz fA /4 geschickt. Dieser Tiefpass dient als Rekonstruktionsfilter. Zeichnen Sie das Spektrum nach der Filterung. Aufgabe 5.4: Änderung des Spektrums nach Unterabtastung Ein Signal y(t) wird mit der Frequenz fA = 1/tA abgetastet. Anschließend wird jedoch nur jeder N -te Wert der Abtastwertefolge yn weiterverarbeitet, d. h. die verarbeitete Folge besitzt die Abtastfrequenz fA,2 = fA /N . Untersuchen Sie, wie das Spektrum des langsam abgetasteten Signals mit dem des schnell abgetasteten Signals zusammenhängt. Aufgabe 5.5: Abtasttheorem Welcher Bedingung muss die Abtastzeit tA genügen, damit bei der Abtastung des Signals y(t) = 1 + cos(2 Hz πt) + 2 cos(40 Hz πt) das Abtasttheorem erfüllt wird?

5.8 Aufgaben

307

Aufgabe 5.6: Rekonstruktionsfilter Das Signal y(t) = sin(2πf1 t) +

1 sin(2πf2 t) , 2

f1 = 3 Hz ,

f2 = 4 Hz ,

werde mit der Anordnung in Abbildung 5.47 abgetastet und wieder rekonstruiert.

+ + Abbildung 5.47: Abtastsystem.

Dabei durchläuft das Signal y(t) ein LTI-System mit der Impulsantwort g1 (t) = 1/(πt) und wird mit der imaginären Einheit j multipliziert. Das Resultat wird mit dem ursprünglichen Signal y(t) überlagert. Das entstehende Signal y1 (t) wird zunächst ideal mit der Abtastfrequenz fA = 2 Hz abgetastet und dann mit einem zeitkontinuierlichen Rekonstruktionsfilter mit der Übertragungsfunktion  1 für |f | < 1,5 Hz G2 (f ) = 0 für |f | ≥ 1,5 Hz rekonstruiert. (a) Wie heißt ein System mit der Impulsantwort g1 (t)? Geben Sie G1 (f ) •−◦ g1 (t) an. (b) Skizzieren Sie den Betrag des Spektrums von y(t). (c) Skizzieren Sie den Betrag des Spektrums von y1 (t). (d) Skizzieren Sie den Betrag des Spektrums von y1∗ (t). (e) Skizzieren Sie den Betrag des Spektrums von y˜1 (t). Aufgabe 5.7: DFT von Zeitfolgen Berechnen Sie jeweils zur Folge yn die diskrete Fourier-Transformierte Yk für die Indizes k = 0, . . . , N − 1. (a) yn = (2, 0, 1, 0, 0, 0, 1, 0) (b) yn = (2, 0, 3, 0) (c) yn = (1, 2, 3, 4) (d) yn = ej2παn/N , α ∈ Z

(e) yn = cos(2παn/N ), α ∈ Z (f) yn = 1

5 Zeitdiskrete Signale

308 Aufgabe 5.8: Leckeffekt bei der DFT Verwenden Sie die Formel N −1 X n=0

 exp(−j2πkn/N ) =

N 0

für k = l · N , sonst

l∈Z

zur Berechnung der 6-Punkte-DFT für die Zeitwerte xn = sin(2πf0 ntA ), wobei für die Abtastzeit gilt: tA = 6f10 . Skizzieren Sie den Betrag der erhaltenen DFT im Bereich 0 ≤ k ≤ 5. Würde man eine DFT der Länge 5 benutzen, so ergäbe sich das in Abbildung 5.48 dargestellt Betragsspektrum der DFT. Erklären Sie die Unterschiede der beiden Spektren (DFT der Länge 5 und 6).

Abbildung 5.48: 5-Punkte-DFT-Betragsspektrum des Signals xn .

Aufgabe 5.9: Auflösung im Frequenzbereich Bei Wolkenkratzern müssen Gebäuderesonanzen im Bereich von 0,8 Hz bis 1,0 Hz vermieden werden, da sonst Fenster zu Bruch gehen können. Deshalb ist es für Gebäudetechniker wichtig, die exakten Resonanzfrequenzen zu kennen. Dazu werden am Gebäude Aufnehmer angebracht, deren Signale digital ausgewertet werden. Unmittelbar nach der A/D-Umsetzung wird eine FFT durchgeführt. Wie viele Punkte N = 2n muss die FFT bei der Abtastfrequenz fA = 5,4 Hz umfassen, damit die Frequenzauflösung feiner als 0,001 Hz ist? Wie lange muss das Signal hierzu beobachtet werden? Aufgabe 5.10: Korrelation und Kovarianz zeitdiskreter Signale Gegeben sind die Signale y1,n und y2,n , die als Realisierungen eines Zufallsprozesses angesehen werden können (Tab. 5.2). (a) Bestimmen Sie die Werte der Korrelationsfunktion ry1 y2 [k] für die Zeitverschiebungen k ∈ {−3, 0, 3}.

5.8 Aufgaben

309 Tabelle 5.2: Signale y1,n und y2,n .

n y1,n y2,n

1 6 8

2 4 8

3 2 6

4 8 6

5 8 4

6 6 2

(b) Bestimmen Sie die Werte der Kovarianzfunktion Cy1 y2 [k] für die Zeitverschiebungen k ∈ {−3, 0, 3}. Bei welcher der drei betrachteten Zeitverschiebungen besitzen die Signale die größte Abhängigkeit? Wie lässt sich der Unterschied zu den berechneten Korrelationswerten erklären? Aufgabe 5.11: Diskrete Fourier-Transformation Ordnen Sie in den Abbildungen 5.49 und 5.50 den Zeitfolgen (arabische Zahlen) die richtigen Spektralfolgen (Großbuchstaben) zu.

Abbildung 5.49: Zeit- und Spektralfolgen zu Aufgabe 5.11(a).

310

5 Zeitdiskrete Signale

Abbildung 5.50: Zeit- und Spektralfolgen zu Aufgabe 5.11(b).

6

Zeitdiskrete Systeme

In Kapitel 4 wurden zeitkontinuierliche Systeme als eine Einrichtung behandelt, die auf ein zeitkontinuierliches Eingangssignal ye (t) mit einem zeitkontinuierlichen Ausgangssignal ya (t) antwortet. Zeitdiskrete Systeme werden durch eine Eingangsfolge angeregt, die als Funktion ye : N → C bzw. ye : Z → C aufgefasst werden kann, wobei ye,n = ye (n tA ) den n-ten Abtastwert bezeichnet. Als Ausgangssignal entsteht eine Ausgangsfolge ya : N → C bzw. ya : Z → C, deren n-ter Wert ebenfalls mit ya,n = ya (n tA ) bezeichnet wird. In diesem Kapitel werden zuerst die allgemeinen Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme übertragen. Auf Besonderheiten der Zeitdiskretisierung wird explizit eingegangen und elementare Blöcke werden eingeführt. Anschließend wird die mathematische Beschreibung mittels Differenzengleichungen bzw. mit Hilfe der z-Transformation dargestellt. Nach der zeitdiskreten Darstellung zeitkontinuierlicher Systeme werden frequenzselektive Filter behandelt. Schließlich werden die eingeführten Begriffe und Definitionen anhand praktischer Beispiele veranschaulicht.

6.1

Eigenschaften

Wie bereits erwähnt, behandelt dieses Kapitel das Verhalten zeitdiskreter Systeme, also Beziehungen von Folgen. Betrachtet werden somit stets diskrete Funktionen y, ye , ya : N → C bzw. y, ye , ya : Z → C, die aus einem kontinuierlichen Signal durch Abtasten entstehen. Bei den Bezeichnungen werden die folgenden Konventionen benutzt: Sowohl die gesamte Folge als auch ein einzelner Wert des Signals werden mit yn = y(n tA ) kenntlich gemacht.1 Unter Beachtung der Tatsache, dass zeitdiskrete Systeme stets Folgen auf Folgen abbilden, sind durch diese Bezeichnungsweise keine Missverständnisse zu befürchten. Im folgenden Abschnitt sei stets ye,n = ye (n tA ) ,

ya,n = ya (n tA ) ,

ye , ya : Z → C

(6.1)

vorausgesetzt. Mit der zeitdiskreten Operatorgleichung ya,n = S{ye,n }

(6.2)

lassen sich alle Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme übertragen. 1 Man betrachte die Analogie zum zeitkontinuierlichen Fall, in welchem durch y(t) sowohl die gesamte Funktion als auch der Funktionswert an einer bestimmten Stelle t bezeichnet wird.

6 Zeitdiskrete Systeme

312 Bemerkung 6.1

Gleichung (6.2) ist nach obigen Bemerkungen keineswegs so zu verstehen, dass die n-te Komponente des Ausgangssignals sich durch einen Operator aus der n-ten Komponente des Eingangssignals ergibt, sondern stellt eine Beziehung zwischen Zahlenfolgen her. • Definition 6.1 Zeitdiskretes System Ein zeitdiskretes System S ist ein System mit der Operatorgleichung (6.2), dessen Eingangssignal ye,n und Ausgangssignal ya,n zeitdiskrete Signale, d. h. Wertefolgen, sind. Die Eigenschaften der Linearität, Zeitinvarianz, Kausalität, Dynamik und Stabilität lassen sich einfach auf zeitdiskrete Systeme übertragen. Definition 6.2 Linearität Ein zeitdiskretes System S heißt linear, wenn für zwei beliebige Eingangssignale ye1,n und ye2,n und zwei beliebige Konstanten c1 , c2 ∈ R oder C S{c1 ye1,n + c2 ye2,n } = c1 S{ye1,n } + c2 S{ye2,n }

(6.3)

gilt. Der Linearitätsbegriff lässt sich auf N Eingangssignale ) (N N X X ci S{yei,n } S ci yei,n = i=1

und sogar auf unendlich viele Eingangssignale ) ( ∞ ∞ X X ci S{yei,n } S ci yei,n = i=−∞

(6.4)

i=1

(6.5)

i=−∞

erweitern, wobei (6.5) wieder die Stetigkeit des Systems impliziert, vgl. Bemerkung 4.1. Definition 6.3 Zeitinvarianz Ein zeitdiskretes System S heißt zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal ye,n−n0 mit dem entsprechend zeitlich verschobenen Ausgangssignal ya,n−n0 antwortet: ya,n = S{ye,n }

=⇒

ya,n−n0 = S{ye,n−n0 } .

Zeitdiskrete Systeme, die (6.6) nicht genügen, heißen zeitvariant.

(6.6)

6.1 Eigenschaften

313

Definition 6.4 Kausalität Ein zeitdiskretes System S heißt kausal, wenn die Antwort nur von gegenwärtigen oder vergangenen, nicht jedoch von zukünftigen Werten des Eingangssignals abhängt. Dies bedeutet, dass für ein System S aus ye1,n = ye2,n

für n ≤ n1

(6.7)

und ya1,n = S{ye1,n } ,

ya2,n = S{ye2,n }

(6.8)

stets ya1,n = ya2,n

für n ≤ n1

(6.9)

folgt. Die Signale ye1,n und ye2,n sind hier nach Voraussetzung für n ≤ n1 identisch. An Abtastzeitpunkten n > n1 können sie sich unterscheiden. Gehen jedoch bei einem System zukünftige Werte in die Berechnung des Ausgangswertes ya,n ein, so können sich bei einem nichtkausalen System die beiden Ausgangswerte ya1,n und ya2,n unterscheiden. Definition 6.5 Dynamik Ein zeitdiskretes System S heißt dynamisch, wenn die Antwort ya,n des Systems nicht nur vom augenblicklichen Wert des Eingangssignals ye,n , sondern auch von den vergangenen, bei nichtkausalen Systemen auch von zukünftigen Werten abhängt. Die Antwort ya,n eines nichtdynamischen Systems hängt damit nur von dem augenblicklichen Wert des Eingangssignals ye,n ab. Man sagt auch, ein dynamisches System hat ein Gedächtnis der Dauer N , wenn die Antwort ya,n0 durch Werte der Erregung im Intervall {n0 − N, . . . , n0 } vollständig bestimmt ist. Ein nichtdynamisches System hat demnach ein Gedächtnis der Dauer null. Definition 6.6 Stabilität Ein zeitdiskretes System S heißt stabil, wenn jedes beschränkte, zulässige zeitdiskrete Eingangssignal ye,n ein ebenfalls beschränktes Ausgangssignal ya,n zur Folge hat, d. h. wenn aus der Bedingung ∃ m > 0 mit |ye,n | < m < ∞

für alle n ∈ Z

(6.10)

die folgende Aussage folgt: ∃ M > 0 mit |ya,n | < M < ∞

für alle n ∈ Z .

(6.11)

6 Zeitdiskrete Systeme

314

Man spricht hier auch von BIBO-Stabilität, was von der englischen Bezeichnung bounded-input, bounded-output abgeleitet ist.

6.1.1

Lineare zeitinvariante Systeme (LTI-Systeme)

Auch bei zeitdiskreten Systemen sind die linearen zeitinvarianten Systeme (LTI-Systeme) von großem Interesse. Doch hierzu ist zuerst der zeitdiskrete Dirac-Impuls, also das zeitdiskrete Pendant zu (3.270), zu definieren. Definition 6.7 Zeitdiskreter Dirac-Impuls Der zeitdiskrete Dirac-Impuls wird durch  1 für n = 0 δn = 0 für n 6= 0

(6.12)

definiert. Entsprechend (3.270) erhält man den Wert einer Folge zum diskreten Zeitpunkt n0 als Faltung der Folge mit dem Dirac-Impuls im Zeitpunkt n0 : yn0 =

∞ X n=−∞

yn δn−n0 = yn ∗ δn

n=n0

.

(6.13)

Nun kann die zeitdiskrete Impulsantwort eingeführt werden. Definition 6.8 Impulsantwort Die Antwort eines zeitdiskreten Systems S auf den Impuls δn als Eingangssignal gn = S{δn }

(6.14)

nennt man Impulsantwort gn des zeitdiskreten Systems. Mit (6.13) lässt sich ein Eingangssignal ye,n als Faltungssumme ye,n =

∞ X

ye,i δn−i

(6.15)

i=−∞

darstellen. Benutzt man das Signal ye,n als Eingangssignal eines (stetigen) LTI-Systems S, so erhält man das Ausgangssignal als Faltung des Eingangssignals ye,n mit der Impulsantwort gn des Systems S, ( ∞ ) ∞ X X ye,i δn−i = ye,i S{δn−i } (6.16) ya,n = S{ye,n } = S i=−∞

i=−∞

6.1 Eigenschaften

=

315

∞ X i=−∞

ye,i gn−i = ye,n ∗ gn ,

(6.17)

wobei die Faltung zweier Zahlenfolgen xn , yn durch xn ∗ yn =

∞ X

xn−k yk =

k=−∞

∞ X

xk yn−k

(6.18)

k=−∞

definiert ist. Dies bedeutet, dass zeitdiskrete LTI-Systeme vollständig durch ihre Impulsantwort charakterisiert sind. Satz 6.2: Impulsantwort Die Impulsantwort gn = S{δn }

(6.19)

eines zeitdiskreten LTI-Systems S charakterisiert das System vollständig. Die Antwort ya,n bei gegebenem Eingangssignal ye,n berechnet sich aus der Faltung des Eingangssignals mit der Impulsantwort: ya,n = ye,n ∗ gn .

(6.20) •

Bemerkung 6.3 (Gewichtsfunktion) Aufgrund der Kommutativität der Faltung lässt sich (6.17) auch wie folgt schreiben: ya,n =

∞ X

ye,n−i gi .

(6.21)

i=−∞

Dadurch wird deutlich, dass gn den Einfluss des um n verschobenen Eingangswertes beschreibt. Daher wird gn auch als Gewichtsfunktion bezeichnet. • Zeitdiskrete Systeme können demzufolge mittels ihrer Impulsantwort charakterisiert werden. Die Unterscheidung im Hinblick auf die Dauer der Impulsantwort liefert die folgende Definition. Definition 6.9 FIR- und IIR-Systeme Zeitdiskrete Systeme S, deren Impulsantwort eine endliche Länge besitzt, werden als FIR-Systeme (FIR: finite impulse response) bezeichnet. Systeme mit unendlich langer Impulsantwort heißen IIR-Systeme (IIR: infinite impulse response). Die Aussagen zur Kausalität und Stabilität zeitdiskreter LTI-Systeme lassen sich aus den Untersuchungen zeitkontinuierlicher Systeme übertragen; die entsprechenden Beweise verlaufen analog.

6 Zeitdiskrete Systeme

316 Satz 6.4: Kausalität

Ein zeitdiskretes LTI-System S ist genau dann kausal, wenn die Impulsantwort gn für negative Indizes verschwindet: gn = 0

n < 0.

für

(6.22) •

Satz 6.5: Stabilität Ein zeitdiskretes LTI-System ist genau dann stabil, wenn die Impulsantwort gn absolut summierbar ist: ∞ X |gn | < ∞ . (6.23) n=−∞



Abschließend soll untersucht werden, wie ein zeitdiskretes LTI-System S auf eine komplexe harmonische Schwingung ye,n = A · ej2πf0 ntA

(6.24)

der Frequenz f0 reagiert. Die Antwort ergibt sich als Faltung zwischen der Impulsantwort gn und dem Eingangssignal ye,n : ya,n =

∞ X

∞ X

ye,i gn−i =

(6.25)

i=−∞

i=−∞

= A · ej2πf0 ntA

A · ej2πf0 itA · gn−i

∞ X

gn−i · e−j2πf0 (n−i)tA = ye,n · G∗ (f0 ) .

(6.26)

i=−∞

Satz 6.6: Frequenzgang Ein zeitdiskretes LTI-System, das mit einer komplexen harmonischen Schwingung ye,n = A · ej2πf0 ntA

(6.27)

angeregt wird, antwortet mit einem Ausgangssignal derselben Frequenz f0 . Der Proportionalitätsfaktor zwischen Ein- und Ausgangssignal ist die Fourier-Transformierte G∗ (f ) der zeitdiskreten Impulsantwort gn bei der Frequenz f0 . Man nennt die Fourier-Transformierte G∗ (f ) den Frequenzgang des zeitdiskreten Systems. •

6.1.2

Mehrgrößensysteme

Bis jetzt wurde angenommen, dass die beschriebenen Systeme nur eine Eingangs- und eine Ausgangsgröße besitzen. Dies muss natürlich nicht so sein. Alle bisher beschriebenen Eigenschaften lassen sich auch auf Mehrgrößensysteme erweitern. Entsprechend der Anzahl der Eingangs- und Ausgangsgrößen spricht man von SISO-(singleinput single-output)- und MIMO-(multiple-input multiple-output)-Systemen bzw. deren Mischsystemen SIMO und MISO.

6.2 Systembeschreibung durch Differenzengleichungen

317

Bei Mehrgrößensystemen wird aus dem Eingangssignal ye,n der Eingangssignalvektor ye,n und aus dem Ausgangssignal ya,n der Ausgangssignalvektor ya,n . Das System wird weiterhin allgemein beschrieben durch die Operatorgleichung ya,n = S{ye,n } .

6.2

(6.28)

Systembeschreibung durch Differenzengleichungen

Der Zusammenhang zwischen den zeitkontinuierlichen Signalen eines technischen Systems wird meist durch Differentialgleichungen beschrieben – in vielen Fällen sogar, zumindest näherungsweise, durch lineare Differentialgleichungen mit konstanten Koeffizienten. Bei Abtastregelungen, Impulssystemen der Nachrichtentechnik, aber auch bei mathematischen Modellen in den Wirtschaftswissenschaften liegen stattdessen zeitdiskrete Signale vor [Fö11].

6.2.1

Allgemeine Darstellung

Die Differentialgleichungen basieren auf der i-ten zeitlichen Ableitung y (i) (t) eines Signals y(t). Ein Ableitungsbegriff existiert hingegen für zeitdiskrete Signale nicht. Man kann jedoch, wie in Abb. 6.1 ersichtlich, die zeitkontinuierliche Ableitung durch einfache Differenzenquotienten annähern: y(t) ˙ =

dy yn − yn−1 ∆y y(tn ) − y(tn−1 ) = , ≈ = dt ∆t tA tA

t ∈ (tn−1 , tn ] .

(6.29)

Zentraler Baustein der Differenzengleichungen ist die zeitliche Verschiebung, d. h. es gehen nicht nur aktuelle Werte yn eines Signals, sondern auch vergangene Werte yn−i ,

i > 0,

(6.30)

bzw. bei nichtkausalen Systemen vergangene und zukünftige Werte yn+i ,

i ∈ Z \ {0} ,

(6.31)

Abbildung 6.1: Annäherung der Ableitung eines Signals durch Differenzenbildung.

6 Zeitdiskrete Systeme

318

in die Differenzengleichung ein. Damit lässt sich in der allgemeinen Form der Ausgangswert ya,n eines zeitdiskreten Systems S zur Zeit n als Funktion der anderen Werte der Ausgangsfolge ya,n−i , i ∈ Z \ {0}, der Werte der Eingangsfolge ye,n , n ∈ Z, und des Zeitindex n darstellen. Bei kausalen Systemen werden nur vergangene Werte benutzt: ya,n = f (ya,n−1 , . . . , ye,n , ye,n−1 , . . . , n) .

(6.32)

Bei der Betrachtung zeitdiskreter LTI-Systeme geht die allgemeine Darstellung in eine lineare Differenzengleichung mit zeitunabhängigen Koeffizienten über: n2 X ν=n1

aν ya,n−ν =

m2 X

bµ ye,n−µ .

(6.33)

µ=m1

Dabei charakterisieren die Koeffizienten aν und bµ das System. Die dabei vorkommenden Indexgrenzen n1 , n2 , m1 und m2 sagen etwas über die Kausalität und andere Eigenschaften des Systems aus. Man kann dabei ohne Einschränkung n1 ≤ n2 und m1 ≤ m2 voraussetzen. Sind alle Indizes negativ oder gleich null, so handelt es sich um ein antikausales System. Sind alle Indizes positiv oder gleich null, so handelt es sich um ein kausales System. Ansonsten ist es ein akausales System. Beispiel 6.7: Differenzengleichung des RC-Tiefpasses Der in Beispiel 1.2 vorgestellte RC-Tiefpass besitzt die Differentialgleichung RC · u˙ a (t) + ua (t) = ue (t) . Mit (6.29) entsteht daraus die Differenzengleichung ua,n − ua,n−1 RC · + ua,n = ue,n tA tA RC ua,n−1 + ue,n . ⇐⇒ ua,n = RC + tA RC + tA

(6.34)

(6.35) (6.36)

Durch Vergleich mit (6.33) lassen sich an dieser Gleichung sowohl die Linearität als auch die Kausalität des Systems unmittelbar erkennen. • Neben der Darstellung eines zeitdiskreten Systems S als lineare Differenzengleichung nach (6.33) existiert noch die Darstellung im Zustandsraum, die im Folgenden beschrieben wird.

6.2.2

Zustandsraum

Entsprechend den Überlegungen bei zeitkontinuierlichen Systemen werden für zeitdiskrete Systeme die allgemeine Zustandsraumdarstellung und die Zustandsraumdarstellung für lineare, zeitinvariante Systeme ohne Herleitung angegeben.

6.2 Systembeschreibung durch Differenzengleichungen

319

Definition 6.10 Zustandsraumdarstellung Ein zeitdiskretes System S lässt sich mit seinen Eingangssignalen ye,n und Ausgangssignalen ya,n sowie seinen inneren Zustandsgrößen zn durch zn+1 = f (zn , ye,n , n)

(6.37)

ya,n = g(zn , ye,n , n)

(6.38)

im Zustandsraum beschreiben. Dabei bezeichnet man, analog zum zeitkontinuierlichen Fall, die erste Gleichung als Zustandsgleichung und die zweite Gleichung als Ausgangsgleichung. Definition 6.11 Zustandsraumdarstellung für zeitdiskrete LTI-Systeme Zeitdiskrete LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch die Vektorgleichungen zn+1 = A zn + B ye,n

(6.39)

ya,n = C zn + D ye,n

(6.40)

darstellen, wobei die auftretenden Matrizen wiederum als Systemmatrix für die Matrix A, Steuermatrix für die Matrix B sowie Beobachtungsmatrix und Durchschaltmatrix für C bzw. D bezeichnet werden. Beispiel 6.8: Zustandsraumdarstellung Als Beispiel für eine Zustandsraumdarstellung wird das System aus Abb. 6.2 betrachtet. Es handelt sich um eine gleitende Mittelwertbildung, die vergangene Werte gemäß den Faktoren bi gewichtet. Im Vorgriff auf Abschnitt 6.3 ist in den Blöcken

Abbildung 6.2: Zeitdiskretes Beispielsystem.

6 Zeitdiskrete Systeme

320

die z-Übertragungsfunktion z −1 zu sehen, die eine Verzögerung des Eingangssignals um die Abtastzeit tA bewirkt. Diese z-Übertragungsfunktion darf nicht mit den Elementen zi,n des Zustandsvektors verwechselt werden. Aus der Zeichnung können die folgenden Gleichungen abgelesen werden: z2,n+1 = b2 ye,n ,

(6.41)

z1,n+1 = b1 ye,n + z2,n + a1 ya,n ,

(6.42)

ya,n = z1,n + b0 ye,n .

(6.43)

Einsetzen der Gleichungen ineinander ergibt: A



z1,n+1 z2,n+1



ya,n

B

z }| {  z }|   { z1,n a1 1 b1 + a1 b0 = + ye,n , z2,n 0 0 b2   z1,n + (b0 ) ye,n . = (1, 0) |{z} | {z } z2,n C

(6.44) (6.45)

D

Auflösen und Einsetzen ergibt die in Abb. 6.2 angegebene Differenzengleichung. •

6.3

Die z-Transformation

Zur Beschreibung zeitkontinuierlicher Signale und Systeme benutzt man die FourierTransformation und die Laplace-Transformation. Digitalrechner arbeiten jedoch mit diskreten Signalen und Systemen. Die Beschreibung zeitdiskreter Systeme mit Hilfe der z-Transformation bietet ähnliche Möglichkeiten wie die Beschreibung kontinuierlicher Systeme mit der Laplace-Transformation.

6.3.1

Definition und Beziehung zur Laplace-Transformation

Bei der Herleitung der Fourier-Transformation zeitdiskreter Signale wurde das Signal in seiner Darstellung als Impulsreihe der Fourier-Transformation unterzogen. Dieser Weg wird auch bei der Herleitung der z-Transformation durch Anwendung der Laplace-Transformation auf die Impulsreihe gegangen. Wird ein zeitkontinuierliches Signal y(t) mit der Frequenz fA = 1/tA abgetastet, so lässt sich das gewonnene zeitdiskrete Signal y∗ (t) nach (5.45) als Impulsreihe y∗ (t) = y(t) ·

∞ X n=−∞

δ(t − ntA ) =

∞ X n=−∞

y(n tA ) δ(t − ntA )

(6.46)

darstellen. Wendet man auf diese Gleichung die zweiseitige Laplace-Transformation

6.3 Die z-Transformation

321

an, so erhält man als die Laplace-Transformierte des zeitdiskreten Signals: ( ∞ ) X Y∗ (s) = LII {y∗ (t)} = LII y(n tA ) δ(t − ntA )

(6.47)

n=−∞

Z∞ X ∞

=

−∞ n=−∞

y(n tA ) δ(t − ntA ) e−st dt =

∞ X

y(n tA ) e−ntA s .

(6.48)

n=−∞

Diese ist wegen e−ntA s = e−ntA (s+j2πl/tA ) ,

l ∈ Z,

(6.49)

eine Funktion, die bei Änderung des Imaginärteils um ein Vielfaches von (6.50)

2π/tA = 2πfA unverändert bleibt: Y∗ (s + j2πlfA ) = Y∗ (s) ,

l ∈ Z.

(6.51)

In der komplexen s-Ebene wiederholt sich damit der Informationsgehalt periodisch. Bei Einhaltung des Abtasttheorems steckt bereits die gesamte Information über das Signal y∗ (t) im Streifen {s = δ + j2πf ∈ C : |2πf | ≤ πfA } = {s ∈ C : |Im{s}| ≤ πfA } .

(6.52)

Zur Vermeidung dieser Periodizität wird die s-Ebene mittels der konformen Abbildung z = etA s

(6.53)

eindeutig und nichtlinear auf die z-Ebene abgebildet. Alle Punkte gleicher Information gehen somit in denselben Bildpunkt über. Die Mehrdeutigkeiten in (6.47) verschwinden, weil sie mehrfach in sich selbst abgebildet werden. Mit Abb. 6.3 ergeben sich die in Tabelle 6.1 gezeigten Korrespondenzen.

Abbildung 6.3: Abbildung der Streifen in die z-Ebene.

6 Zeitdiskrete Systeme

322

Tabelle 6.1: Korrespondenzen zwischen s- und z-Ebene.

s-Ebene imaginäre Achse linke komplexe Ebene rechte komplexe Ebene Ursprung (s = 0) halbe Abtastfrequenz

z-Ebene Einheitskreis Inneres des Einheitskreises Äußeres des Einheitskreises z=1 z = −1

Der Übergang zur z-Transformation besitzt aber auch noch andere Vorteile. So wird für kausale Systeme der Bereich der Stabilität δ 0 aufspalten. Mit der Definition der entsprechenden zTransformierten, Y + (z) =

∞ X

yn z −n ,

(6.57)

n=0

Y − (z) =

0 X

yn z −n =

n=−∞

∞ X

y−n z n ,

(6.58)

n=0

erhält man die Darstellung Y (z) = Y + (z) + Y − (z) − y0 .

(6.59)

Eine Folge yn bestimmt eindeutig die z-Transformierte Y (z). Umgekehrt ist, wie später exemplarisch gezeigt wird, eine Folge yn durch Y (z) nur dann eindeutig bestimmt, wenn zu Y (z) das Konvergenzgebiet der Summe in z angegeben wird.

6.3 Die z-Transformation

6.3.2

323

Existenz der z-Transformierten

Die Existenz der z-Transformierten ist von der Angabe des Konvergenzgebietes abhängig. Die z-Transformierte nach (6.56) ist die Laurent-Reihen-Entwicklung (2.176) der Funktion ∞ X

Y (z) =

n=−∞

an (z − z0 )n

(6.60)

mit den Koeffizienten an = y−n , n ∈ Z und z0 = 0. Das Konvergenzgebiet der z-Transformierten muss also ein Kreisringgebiet um z0 = 0 der Gestalt r+ < |z| < r− ,

r+ < r− ,

(6.61)

sein. Die beiden Radien r+ und r− sind von der jeweiligen Wertefolge yn abhängig. Es lässt sich jedoch zeigen, dass sie jeweils nur vom kausalen oder vom antikausalen Teil der Wertefolge abhängig sind. Dazu spaltet man die Reihe wieder in einen kausalen und in einen antikausalen Teil auf. 1. Kausaler Teil, n ≥ 0: Die z-Transformierte des kausalen Teils yn+ lautet: +

Y (z) =

∞ X

yn z −n .

(6.62)

n=0

Mit w = 1/z ist dies eine gewöhnliche Potenzreihe im Sinne der Funktionentheorie:   X ∞ 1 Y+ = yn wn . (6.63) w n=0 Wie dies allgemein bei Potenzreihen möglich ist, kann der Konvergenzradius R dieser Reihe gemäß der Formel  R=

lim sup |yn |1/n n→∞

−1 (6.64)

bestimmt werden, wobei 1/0 = ∞ und 1/∞ =  0 gesetzt wird. Somit konvergiert diese Reihe, was mit der Existenz von Y + w1 gleichbedeutend ist, im Bereich |w| < R .

(6.65)

Also existiert der kausale Teil Y + (z) außerhalb der Kreisscheibe mit Mittelpunkt 0 und Radius 1/R : |z| > r+ =

1 . R

(6.66)

6 Zeitdiskrete Systeme

324 2. Antikausaler Teil, n ≤ 0: Die z-Transformierte des antikausalen Teils yn− ist: −

Y (z) =

0 X

yn z −n .

(6.67)

n=−∞

Um obiges Vorgehen auf diese Reihe anzuwenden, muss sie zuerst in die Standarddarstellung gebracht werden. Diese lautet mit einfacher Umindizierung Y − (z) =

∞ X

y−n z n .

(6.68)

n=0

Analog zum kausalen Teil erhält man hier den Konvergenzradius  r=

lim sup |y−n | n→∞

1/n

−1 (6.69)

mit denselben Festlegungen 1/0 = ∞, 1/∞ = 0, und somit das Konvergenzgebiet des antikausalen Teils Y − (z) zu |z| < r− = r .

(6.70)

Betrachtet man nun die Definitionsbereiche der Funktionen Y + (z) und Y − (z), so fällt sofort auf, dass die z-Transformierte Y (z) nur in einem Kreisring um den Nullpunkt existiert, wobei sich die Radien gemäß r+ = 1/R und r− = r ergeben. Weiterhin wird aus der Herleitung deutlich, dass die Radien r+ und r− nur vom kausalen bzw. vom antikausalen Teil der Folge yn abhängen und somit unabhängig voneinander sind. Ist eine kausale Wertefolge gegeben, wie dies in technischen Anwendungen häufig der Fall ist, so ergibt sich r− = ∞. Bemerkung 6.9 Ist die Wertefolge eine rechtsseitige Folge, d. h. existiert ein nmin mit yn = 0 für n < nmin , so hat das Konvergenzgebiet wegen limn→−∞ yn = 0 und somit r− = ∞ stets die Form r+ < |z|.

Analog entsteht bei linksseitigen Wertefolgen – bei welchen yn = 0 für n > nmax und somit r+ = 0 gilt – stets ein Konvergenzgebiet der Gestalt |z| < r− . • Bemerkung 6.10

1. Enthält das Konvergenzgebiet der z-Transformierten einer Wertefolge den Einheitskreis, dann ist für diese Folge auch die zeitdiskrete Fourier-Transformierte konvergent, vgl. (5.50) in Abschnitt 5.3.1. Die Fourier-Transformierte kann mittels z = ej2πf tA aus der z-Transformierten berechnet werden.

6.3 Die z-Transformation

325

2. Ist die Wertefolge yn endlich, d. h. gilt yn 6= 0 nur für endlich viele Indizes n, so konvergiert die z-Transformation automatisch für alle z mit 0 < |z| < ∞. • Im folgenden Beispiel soll die Bestimmung des Kreisringgebietes, aber auch die Wichtigkeit der Angabe dieses Gebiets zur Eindeutigkeit der z-Transformierten gezeigt werden. Beispiel 6.11: Bestimmung des Konvergenzgebietes Bei der Wertefolge  n a für n ≥ 0 yn = bn für n < 0

mit

a, b ∈ C

(6.71)

stellen sich drei Fragen: Wie lautet die z-Transformierte? Welchen Bedingungen müssen a ∈ C und b ∈ C genügen, damit die z-Transformierte existiert? Für welche z-Werte ist die z-Transformierte dann konvergent? Nach Aufteilen erhält man den kausalen Teil ∞  n X a z 1 Y + (z) = , = a = z 1 − z − a z n=0 welcher für a ⇔ |z| > |a| = r+ r− .

(6.95)

Der Integrationsweg C liegt im Inneren dieses Kreisrings, in dem sich keine Polstellen befinden. Zur Anwendung des Residuensatzes muss der Integrationsweg die Polstellen umschließen. Dabei müssen die Polstellen auf der linken Seite, d. h. im Inneren, relativ zum Integrationsweg liegen. Hierbei gibt es zwei Möglichkeiten. 1. Der Integrationsweg verläuft in mathematisch positiver Richtung, vgl. C1 in Abb. 6.6. Die Polstellen innerhalb des Weges sind also die Pole innerhalb des Kreisrings, d. h. die Pole mit |z∞ | < r+ .

(6.96)

Hier verwendet man nur die Pole, die für den kausalen Teil des Signals verantwortlich sind. 2. Der Integrationsweg verläuft in mathematisch negativer Richtung, vgl. C2 in Abb. 6.6. Die Polstellen innerhalb des Weges sind die Pole außerhalb des Kreisrings, d. h. die Pole mit |z∞ | > r− .

(6.97)

Diese Pole sind für den antikausalen Teil des Signals verantwortlich. Hierbei ist zu beachten, dass bei mathematisch negativer Richtung das Vorzeichen umzudrehen ist. Des Weiteren muss, falls vorhanden, die Unendlichkeitsstelle bei |z| → ∞ berücksichtigt werden.

6 Zeitdiskrete Systeme

330

Abbildung 6.6: Integrationswege.

Fasst man die vorherigen Ausführungen zusammen, so lässt sich für den kausalen Teil X yn = Res{Y (z) z n−1 ; |z∞i | < r+ } , n ≥ 0, (6.98) i

und für den antikausalen Teil X Res{Y (z) z n−1 ; |z∞i | > r− } , yn = − i

n ≤ 0,

(6.99)

schreiben. Im antikausalen Teil muss, wenn vorhanden, die Unendlichkeitsstelle bei |z| → ∞ beachtet werden. Beispiel 6.15: Rücktransformation mittels Residuensatz Die Funktion Y (z) =

z z−a

mit

|z| > a

ist die z-Transformierte einer kausalen Folge. Man berechnet leicht  yn = Res Y (z) z n−1 ; z∞ = a   n z ; z∞ = a = Res z−a zn = lim (z − a) = an , n ≥ 0. z→a z−a

(6.100)

(6.101) (6.102) •

Als weiteres Beispiel wird die in Beispiel 6.11 berechnete z-Transformierte rücktransformiert.

6.3 Die z-Transformation

331

Beispiel 6.16: Rücktransformation mittels Residuensatz Die z-Transformierte lautet: Y (z) =

z (a − b) (z − a)(z − b)

mit

|a| < |z| < |b| .

(6.103)

Zur Berechnung der Wertefolge yn bestimmt man die Pole und die Unendlichkeitsstellen. 1. Kausaler Teil: |z∞ | < r+ = |a| Hier gibt es nur eine Pol- bzw. Unendlichkeitsstelle z∞ = a. Für n ≥ 0 folgt: yn = Res{Y (z) z n−1 ; z∞ = a}   z n (a − b) = Res ; z∞ = a (z − a)(z − b) z n (a − b) = an , = lim (z − a) z→a (z − a)(z − b)

(6.104) (6.105) n ≥ 0.

(6.106)

2. Antikausaler Teil: |z∞ | > r− = |b| Hier gibt es auch nur einen Pol bzw. eine Unendlichkeitsstelle z∞ = b, da limz→∞ Y (z) = 0 gilt, und es ergibt sich: yn = −Res{Y (z) z n−1 ; z∞ = b}   z n (a − b) ; z∞ = b = −Res (z − a)(z − b) z n (a − b) = − lim (z − b) = bn , z→b (z − a)(z − b)

(6.107) (6.108) n < 0.

(6.109)

Das Resultat der Rücktransformation stimmt mit der Ausgangsfolge von Beispiel 6.11 überein. •

6.3.4.3

Polynomdivision

Ist die z-Transformierte Y (z) als gebrochenrationale Funktion der Form Y (z) =

b0 + b1 z1 + · · · + bM z1M a0 + a1 z1 + · · · + aN z1N

(6.110)

gegeben, so kann für kausale Signale die Wertefolge yn durch Polynomdivision gewonnen werden, da aus     1 1 1 1 1 b0 + b1 + · · · + bM M ÷ a0 + a1 + · · · + aN N = y0 + y1 + · · · z z z z z durch Multiplikation auf beiden Seiten       1 1 1 1 1 b0 + b1 + · · · + bM M = a0 + a1 + · · · + aN N · y0 + y1 + · · · z z z z z

6 Zeitdiskrete Systeme

332

folgt. Nun können durch Koeffizientenvergleich die Werte yn mittels Lösen eines linearen Gleichungssystems bestimmt werden. Der Nachteil der Polynomdivision ist, dass sie im Allgemeinen kein analytisches Ergebnis liefert, da die resultierende Folge yn unendlich lang ist. Es muss ab einer bestimmen Stelle abgebrochen werden. Dieses Verfahren ist besonders für Digitalrechner geeignet.

6.3.4.4

Partialbruchzerlegung

Die z-Transformierte Y (z) sei eine teilerfremde rationale Funktion Y (z) =

p(z) q(z)

(6.111)

mit grad{p(z)} < grad{q(z)}. Das Nennerpolynom q(z) sei durch q(z) =q · (z − z1 )α1 · (z − z2 )α2 · . . . · (z − zK )αK · 2

β1

· (z + γ1 z + δ1 )

2

β2

· (z + γ2 z + δ2 )

(6.112) 2

βL

· . . . · (z + γL z + δL )

darstellbar, wobei die komplexen Polpaare zu den Ausdrücken z 2 + γz + δ zusammengefasst sind. Für alle z ∈ C, für die q(z) 6= 0 gilt, kann die Funktion Y (z) in Partialbrüche zerlegt werden: a12 a1α1 a11 + + ··· + z − z1 (z − z1 )2 (z − z1 )α1 a21 a22 a2α2 + + + ··· + z − z2 (z − z2 )2 (z − z2 )α2 .. . aK2 aKαK aK1 + + ··· + + 2 z − zK (z − zK ) (z − zK )αK b11 z + c11 b12 z + c12 b1β z + c1β1 + 2 (6.113) + 2 + ··· + 2 1 2 z + γ1 z + δ1 (z + γ1 z + δ1 ) (z + γ1 z + δ1 )β1 b22 z + c22 b2β z + c2β2 b21 z + c21 + 2 + ··· + 2 2 + 2 z + γ2 z + δ2 (z + γ2 z + δ2 )2 (z + γ2 z + δ2 )β2 .. . bL1 z + cL1 bL2 z + cL2 bLβ z + cLβL + 2 . + 2 + ··· + 2 L z + γL z + δ L (z + γL z + δL )2 (z + γL z + δL )βL

Y (z) =

Hierbei sind aij ,

i = 1, 2, . . . , K ,

j = 1, 2, . . . , αK

(6.114)

bij , cij ,

i = 1, 2, . . . , L ,

j = 1, 2, . . . , βL

(6.115)

eindeutig bestimmte Konstanten. Wenn alle Koeffizienten in Y (z) reell sind, so gibt es entweder nur reelle Polstellen ··· (z − zi )αi

(6.116)

6.3 Die z-Transformation

333

oder konjugiert komplexe Polstellenpaare (z 2

··· . + γi z + δi )βi

(6.117)

Dann sind auch die Koeffizienten aij , bij und cij reell. Die Koeffizienten aiαi mit der höchsten Ordnung – bei einfachen reellen Polen also die ai1 – können wie folgt berechnet werden: aiαi = lim Y (z) · (z − zi )αi .

(6.118)

z→zi

Die anderen Koeffizienten ermittelt man am einfachsten durch Ausmultiplizieren und Koeffizientenvergleich, welcher auf ein lineares Gleichungssystem führt. Man kann aber auch die anderen Koeffizienten über  m  1 ∂ αi ai(αi −m) = (Y (z) · (z − z ) ) i m! ∂z m z=zi

(6.119)

ermitteln. Hat man die z-Transformierte Y (z) in Partialbrüche zerlegt, so kann man diese mittels der geometrischen Reihe oder einer Transformationstabelle ganz einfach rücktransformieren. Dies wird nun an zwei Beispielen demonstriert. Beispiel 6.17: Partialbruchzerlegung Die z-Transformierte laute Y (z) =

3z 2 + 2z − 10 . z 3 − 5z 2 + 8z − 4

(6.120)

Der Nenner besitzt die Produktdarstellung z 3 − 5z 2 + 8z − 4 = (z − 1) (z − 2)2 .

(6.121)

Daraus folgt für die Partialbruchzerlegung der Ansatz Y (z) =

a11 b11 z + c11 + . z−1 (z − 2)2

(6.122)

Nach (6.118) gilt 3z 2 + 2z − 10 = −5 . z→1 (z − 2)2

a11 = lim Y (z) · (z − 1) = lim z→1

(6.123)

Durch Ausmultiplizieren, d. h. durch Bildung des Hauptnenners, folgt !

3z 2 + 2z − 10 = −5 · (z − 2)2 + (b11 z + c11 ) · (z − 1) 2

= (−5 + b11 )z + (20 − b11 + c11 )z + (−20 − c11 ) .

(6.124)

6 Zeitdiskrete Systeme

334

Durch Koeffizientenvergleich erhält man das Gleichungssystem −5 + b11 = 3 20 − b11 + c11 = 2 −20 − c11 = −10

(6.125)

mit der Lösung c11 = −10 ,

b11 = 8 ,

(6.126)

woraus die Partialbruchzerlegung 3z 2 + 2z − 10 5 8z 10 =− + − − 5z 2 + 8z − 4 z − 1 (z − 2)2 (z − 2)2

Y (z) =

z3

(6.127)

folgt. Natürlich hätte man sich die separate Berechnung von a11 ersparen und diesen Wert auch im Gleichungssystem mitberechnen können. Hat ein System aber nur oder überwiegend reelle Pole erster Ordnung, so reduziert die vorherige Berechnung der entsprechenden Koeffizienten die Ordnung des Gleichungssystems. Mit den Korrespondenzen an−1 · σn−1

◦−•

und n an · σn

◦−•

1 z−a

(6.128)

za (z − a)2

(6.129)

sowie dem Verschiebungssatz erhält man ◦−•

Y (z)

yn = −5 σn−1 + 4 n · 2n · σn − 5 (n − 1) · 2n−1 · σn−1 .

(6.130) •

Beispiel 6.18: Partialbruchzerlegung Die z-Transformierte laute 1 1 = . Y (z) = 3 2 z − 2z + z z · (z − 1)2

(6.131)

Daraus folgt der Ansatz der Partialbruchzerlegung zu Y (z) =

a11 a21 a22 1 = + + . z 3 − 2z 2 + z z z − 1 (z − 1)2

(6.132)

Nach (6.118) gilt 1 = 1, (z − 1)2 1 = lim Y (z) · (z − 1)2 = lim = 1 . z→1 z→1 z

a11 = lim Y (z) · z = lim

(6.133)

a22

(6.134)

z→0

z→0

6.3 Die z-Transformation

335

Dies liefert das Zwischenresultat Y (z) =

1 1 a21 1 = + + . z 3 − 2z 2 + z z z − 1 (z − 1)2

(6.135)

Den Koeffizienten a21 könnte man nun durch Bilden des Hauptnenners und Koeffizientenvergleich oder mit Hilfe der Formel (6.119) bestimmen. Einfacher ist es jedoch, einen geeigneten z-Wert einzusetzen, der keine Polstelle ist. Wählt man z. B. z = −1, so resultiert: Y (z = −1) = −

a21 1 1 = −1 − + 4 2 4

=⇒

a21 = −1

(6.136)

und insgesamt Y (z) =

1 1 1 − + , z z − 1 (z − 1)2

(6.137)

was nach inverser z-Transformation die folgende Wertefolge ergibt: yn = δn−1 − σn−1 + (n − 1) · σn−1 .

6.3.4.5

(6.138) •

Transformationstabelle

Natürlich darf die Transformationstabelle als Weg der Rückführung von der z-Transformierten zur Wertefolge nicht vergessen werden. Oftmals wird die Funktion Y (z) erst durch Partialbruchzerlegung so vereinfacht, dass die Transformationstabelle angewendet werden kann, falls sie nicht bereits aus Funktionen besteht, deren Urfolge bekannt ist. Die Transformationstabelle für die z-Transformation findet man in Anhang C.

6.3.5

Eigenschaften

Bei der z-Transformation sind, wie bei den anderen Transformationen, die Eigenschaften für deren Anwendung von Interesse. Die wichtigsten werden hier dargestellt. Darüber hinaus sind sie ebenfalls im Anhang C tabellarisch zusammengefasst.

6.3.5.1

Linearität

Es gilt die Linearität für z-Transformierte o X nX ci Yi (z) Z ci yi,n = i

(6.139)

i

mit dem Gültigkeitsbereich max{ri+ } < |z| < min{ri− } , i

i

da zur Berechnung der Summe jede der z-Transformierten existieren muss.

(6.140)

6 Zeitdiskrete Systeme

336

6.3.5.2

Zeitumkehr

Bei der Zeitumkehr entsteht aus Y (z) =

∞ X

yn z −n ,

r+ < |z| < r− ,

n=−∞

(6.141)

die z-Transformierte der zeitumgekehrten Folge y−n als Yˆ (z) =

∞ X n=−∞

=Y

∞ X

y−n z −n =

yn z n =

n=−∞

∞ X

yn

n=−∞

 −n 1 z

  1 z

(6.142) (6.143)

mit dem Konvergenzgebiet 1 1 < |z| < + . r− r

6.3.5.3

(6.144)

Zeitverschiebung

Bei der Zeitverschiebung der Folge um l ∈ Z Werte, d. h. yn → yn−l , entsteht aus Y (z) =

∞ X

yn z −n ,

r+ < |z| < r− ,

n=−∞

(6.145)

für allgemeine – d. h. zweiseitige – Folgen die z-Transformierte: Yˆ (z) =

∞ X

yn−l z −n = z −l

n=−∞

∞ X

yn−l z −(n−l)

(6.146)

n=−∞

= z −l Y (z) ,

r+ < |z| < r− .

(6.147)

Kausale Folgen würden jedoch bei einer Verschiebung um l < 0 akausal. Soll die zeitverschobene kausale Folge weiterhin kausal bleiben, so wird ein Teil der Folge abgeschnitten, und dieser Teil muss von der z-Transformierten wieder abgezogen werden: yn+l

6.3.5.4

◦−•

z l Y + (z) −

l−1 X

yi z l−i

mit

i=0

l ≥ 0.

(6.148)

Modulation

Bei der Modulation, d. h. der Multiplikation im Zeitbereich mit an , a ∈ C, folgt aus Y (z) =

∞ X n=−∞

yn z −n ,

r+ < |z| < r− ,

(6.149)

6.3 Die z-Transformation

337

die z-Transformierte des modulierten Signals an yn für a 6= 0 zu Yˆ (z) =

∞ X

an yn z −n =

n=−∞

=Y

∞  −n ∞  z −n X X 1 yn z −n = yn a a n=−∞ n=−∞

z 

(6.150) (6.151)

a

mit dem Gültigkeitsbereich |a| r+ < |z| < |a| r− .

6.3.5.5

(6.152)

Lineare Gewichtung

Aus der Ableitung der z-Transformierten Y (z) ∞ ∞ X d X d n yn z −n−1 yn z −n = − Y (z) = dz dz n=−∞ n=−∞

=−

∞ 1 X n yn z −n z n=−∞

(6.153)

folgt die Regel der z-Transformation für eine linear gewichtete Funktion: Z{n yn } = −z

6.3.5.6

d Y (z) , dz

r+ < |z| < r− .

(6.154)

Faltung

Die z-Transformierte der Faltung zweier Zahlenfolgen xn ∗ yn =

∞ X

∞ X

xk yn−k =

k=−∞

xn−k yk

(6.155)

k=−∞

ergibt sich als Produkt der z-Transformierten: Z{xn ∗ yn } = =

∞ X

(xn ∗ yn ) z −n =

n=−∞ ∞ X k=−∞

xk

∞ X

yn−k z

∞ X

∞ X

xk yn−k z −n

n=−∞ k=−∞ ∞ X −n

xk z −k

=

n=−∞

= X(z) · Y (z) .

k=−∞

∞ X

(6.156) yn−k z −(n−k)

n=−∞

(6.157)

Als Konvergenzbereich ergibt sich der Kreisring max{rx+ , ry+ } < |z| < min{rx− , ry− } .

(6.158)

6 Zeitdiskrete Systeme

338

6.3.5.7

Korrelation

Die Korrelation zweier reeller Zahlenfolgen ist wie folgt definiert: ∞ X ν = i+n xi+n yi rxy (n) = i = ν −n =

i=−∞ ∞ X

xν y−(n−ν) = xn ∗ y−n .

(6.159) (6.160)

ν=−∞

Mit den Transformationsregeln für die Faltung und die Zeitumkehr erhält man:   1 Sxy (z) = Z{rxy (n)} = X(z) Y , (6.161) z   1 Sxx (z) = X(z) X . (6.162) z Als Konvergenzbereich ist hier der Kreisring zu nehmen, in dem beide Funktionen konvergieren. Hierzu ist neben einer zur Faltung analogen Betrachtung noch das Konvergenzgebiet bei Zeitumkehr zu beachten: n n 1 o 1 o (6.163) max rx+ , − < |z| < min rx− , + . ry ry

6.3.5.8

Anfangswertsatz

Für kausale Folgen yn gilt mit Y (z) = Y + (z) =

∞ X n=0

yn z −n = y0 + y1 z −1 + y2 z −2 + · · ·

(6.164)

der Anfangswertsatz der z-Transformation: lim Y (z) = y0 .

(6.165)

z→∞

Für beliebige Folgenelemente yn mit positivem Index n > 0 gilt wegen z n Y + (z) = z n y0 + z n−1 y1 + · · · + yn + yn+1 z −1 + · · ·

(6.166)

und somit yn = z n Y + (z) −

n−1 X i=0

z n−i yi −

∞ X

z −i yn+i

(6.167)

i=1

bei Existenz des Grenzwerts der verallgemeinerte Anfangswertsatz für positive Indizes: ! n−1 X n + n−i n ≥ 0. (6.168) z yi , yn = lim z Y (z) − z→∞

i=0

6.4 Systemfunktion

6.3.5.9

339

Endwertsatz

Die kausale Wertefolge yn lässt sich mit Hilfe des Residuensatzes aus der z-Transformierten berechnen: X yn = Res{Y (z) z n−1 ; |z∞i | < r+ } . (6.169) i

Unter der Voraussetzung, dass eine Polstelle bei z∞ = 1 liegt, und dass alle anderen Pole innerhalb des Einheitskreises |z∞i | < 1 liegen und einfach sind, kann der Residuensatz wie folgt geschrieben werden: X lim (z − z∞i ) Y (z) z n−1 . (6.170) yn = lim (z − 1) Y (z) z n−1 + z→1

|z∞i | 0,2 fA ist die Steigung des Phasenverlaufs positiv und damit die Gruppenlaufzeit negativ; gleichzeitig bleibt aber die absolute Phase weiterhin negativ, was einer Verzögerung beim Durchlauf durch das FIR-System entspricht. • Beispiel 6.31: IIR-System Die Differenzengleichung ya,n − a ya,n−1 = b ye,n

(6.277)

eines IIR-Systems soll untersucht werden. Mit Hilfe der z-Transformierten Ya (z) − a z −1 Ya (z) = b Ye (z)

(6.278)

erhält man die Übertragungsfunktion G(z) =

b bz Ya (z) = , = Ye (z) 1 − a z −1 z−a

(6.279)

deren Null- und Polstellen bei z0 = 0

bzw.

z∞ = a

(6.280)

liegen. Soll das System stabil sein, so muss |z∞ | = |a| < 1

(6.281)

gelten. Die Impulsantwort gn = b · an · σn

(6.282)

6 Zeitdiskrete Systeme

362

0,5 0,4 0,3 0,2 0,1 0 −0,1 −2

0

2

4

6

8

10

Abbildung 6.18: Unendlich lange Impulsantwort gn des IIR-Systems. 1

4

0,8

2

0,6

0

0,4

−2

0,2 0 −0,5

0

−4 −0,5

0,5

0

0,5

Abbildung 6.19: Amplitudengang A(f ) und Phasengang ψ(f ) des zeitdiskreten IIR-Systems für den Fall tA = 1 s und a = b = 0,5.

ist für die Parameter a = 0,5 und b = 0,5 in Abb. 6.18 zu erkennen. Sie ist unendlich lang. Der Amplitudengang  A(f ) = G z = ej2πf tA =

|b|

|ej2πf tA

(6.283)

− a|

und der Phasengang   ψ(f ) = arg G z = ej2πf tA = arg



b 1 − a e−j2πf tA

 (6.284)

dieses Systems sind in Abb. 6.19 für tA = 1 s und a = b = 0,5 dargestellt. Man erkennt die Tiefpasscharakteristik des betrachteten Systems. Hier ist ebenfalls aufgrund der reellwertigen Impulsantwort der Amplitudengang symmetrisch und der Phasengang schiefsymmetrisch. •

6.5 Linearphasige Systeme

6.5

363

Linearphasige Systeme

In der Signalverarbeitung ist man bestrebt, Systeme zu entwerfen, die im Durchlassbereich eine möglichst geringe Phasenverzerrung aufweisen, da solche Verzerrungen eine Veränderung der Signalform bewirken. Im Idealfall sind daher Systeme erwünscht, bei denen der Phasengang frequenzunabhängig den konstanten Wert null annimmt. Derartige Phasengänge lassen sich jedoch bei kausalen Systemen nicht realisieren. Als Kompromiss bieten sich Systeme mit einer linearen Phase an. In diesem Abschnitt erfolgt nach der Definition eines linearphasigen Systems eine Zerlegung der Phase in einen dem ganzzahligen Vielfachen der Abtastzeit proportionalen Anteil und einen Rest. Dies führt auf eine Zeitverschiebung der zugehörigen Impulsantwort. Ein Beispiel veranschaulicht die eingeführten Begriffe. Anschließend wird eine notwendige Bedingung hergeleitet, mittels welcher überprüft werden kann, ob ein vorliegendes System linearphasig sein kann. Der zweite Abschnitt untersucht diese Bedingung für den Fall eines FIR-Filters. Es ergeben sich zwei Möglichkeiten zur Konstruktion linearphasiger FIR-Filter, welche auf Symmetriebetrachtungen der Impulsantwort zurückgeführt werden können. Abschließend illustrieren zwei Beispiele die theoretischen Begriffe.

6.5.1

Definition und Eigenschaften

Im Folgenden werden Systeme betrachtet, deren Frequenzgang eine lineare Phase besitzt. Also muss ψ(f ) = c · f mit c ∈ R gelten. Dies lässt sich für Systeme mit bestimmten Übertragungsfunktionen nachweisen: Satz 6.32: Linearphasiges System Ein zeitdiskretes, stabiles LTI-System, dessen Übertragungsfunktion die Form G(z) = |G(z)| · z −k ,

k ∈ R,

(6.285) •

hat, besitzt eine lineare Phase und eine konstante Gruppenlaufzeit. Beweis 6.33 (Linearphasiges System)

Wir untersuchen den Frequenzgang des Systems, indem G(z) mit z = ej2πf tA betrachtet wird: G∗ (f ) = A(f ) · e−j2πf tA k .

(6.286)

Dann ergibt sich die Phase ψ(f ) = ∠G∗ (f ) = −2πf tA · k

(6.287)

als eine in der Frequenz lineare Funktion, und die Gruppenlaufzeit ist konstant: τg (f ) = −

1 d ψ(f ) = tA k = const . 2π df

(6.288)

6 Zeitdiskrete Systeme

364

Zur weiteren Betrachtung der Phase teilen wir den Exponenten k einer linearen Phase in einen ganzzahligen Anteil nv und einen Rest α auf: nv ∈ Z ,

k = nv + α ,

0 ≤ α < 1.

(6.289)

Die Phase entsteht als ganzzahliges Vielfaches der Abtastzeit und dem Rest: ψ(f ) = −2πf tA nv − 2πf tA α .

(6.290)

Diese Aufteilung wird später bei der Betrachtung der Symmetrieeigenschaften der zugehörigen Impulsantworten wichtig sein. Zuerst soll jedoch ein Beispiel für ein System mit linearer Phase behandelt werden.

Beispiel 6.34: Verzögerter Rechtecktiefpass Ein verzögerter Rechtecktiefpass ist durch den Frequenzgang G∗ (f ) = R(f ) · e−j2πf tA (nv +α) mit dem akausalen Rechtecktiefpass der Grenzfrequenz fg <  R(f ) =

1 0

für |f | < fg sonst

(6.291) fA 2

(6.292)

als Amplitudengang gegeben. Die Phase ist nach Satz 6.32 linear. Die Impulsantwort berechnet sich nach (5.51) zu: Zfg gn = tA

ej2πf tA (n−nv −α) df

(6.293)

−fg

=

ifg h tA ej2πf tA (n−nv −α) j2πtA (n − nv − α) −fg

(6.294)

=

1 sin(2πfg tA (n − nv − α)) π(n − nv − α)

(6.295)

=

fg sin(2πfg tA (n − nv − α)) · . fA 2πfg tA (n − nv − α) 2

(6.296)

Die in Abb. 6.20 dargestellte Impulsantwort ist um k = nv + α symmetrisch.



Darüber hinaus existiert eine Vielzahl von Systemen, deren Phase zwar prinzipiell einen linearen Verlauf besitzt, jedoch durch einen Vorzeichenwechsel des Frequenzgangs Sprünge aufweist. Das soll an einem weiteren Beispiel verdeutlicht werden.

6.5 Linearphasige Systeme

365 0,5 0,4 0,3 0,2 0,1 0 −0,1 −0,2 −5

0

5

10

Abbildung 6.20: Impulsantwort des verzögerten Rechtecktiefpasses für nv = 3 und α = 13 .

Beispiel 6.35: Zeitdiskretes Mittelwertfilter Ein zeitdiskretes LTI-System mit der Impulsantwort ( 1 für 0 ≤ n ≤ M gn = M +1 0 sonst

(6.297)

bildet wegen M

ya,n = ye,n ∗ gn =

1 X ye,n−i M + 1 i=0

(6.298)

zu jedem Zeitpunkt den Mittelwert der vergangenen M + 1 Eingangswerte. Den Frequenzgang solch eines Systems berechnet man zu: G∗ (f ) =

M X

1 e−j2πf ntA M + 1 n=0

1 1 − e−j2πf tA (M +1) M +1 1 − e−j2πf tA −jπf tA (M +1) jπf tA (M +1) e e − e−jπf tA (M +1) 1 = M +1 e−jπf tA ejπf tA − e−jπf tA sin(πf tA (M + 1)) −jπf tA M 1 e . = M +1 sin(πf tA ) =

(6.299) (6.300) (6.301) (6.302)

Diesem System würde aufgrund des Exponenten ein linearer Phasenverlauf zugewiesen werden. Da jedoch der Frequenzgang Nullstellen hat, bei deren Duchlaufen sich das Vorzeichen ändert, entsteht bei diesen Frequenzen zusätzlich ein Phasensprung um ±π. • Aufgrund des letzten Beispiels lassen wir zur Verallgemeinerung eine zusätzliche abschnittsweise konstante Phasenverschiebung ψ0 zu.

6 Zeitdiskrete Systeme

366 Definition 6.19 Verallgemeinert lineare Phase

Ein zeitdiskretes, stabiles LTI-System heißt verallgemeinert linearphasig, wenn die Übertragungsfunktion abschnittsweise in die Gestalt G∗ (f ) = A(f ) e−j2πf tA k+jψ0

(6.303)

gebracht werden kann. Dann ist die Phase verallgemeinert abschnittsweise linear ψ(f ) = −2πf tA k + ψ0

(6.304)

und damit die Gruppenlaufzeit entsprechend abschnittsweise konstant. Der um ψ0 erweiterte Frequenzgang mit verallgemeinert linearer Phase G∗ (f ) = A(f ) · e−j[2πf tA (nv +α)−ψ0 ]

(6.305)

kann mit Hilfe der Euler’schen Formel wie folgt zerlegt werden: G∗ (f ) = A(f ) cos(2πf tA (nv +α)− ψ0 ) − jA(f ) sin(2πf tA (nv +α)− ψ0 ) . (6.306) Wird die Impulsantwort gn als reellwertig angenommen, so kann der aus der z-Transformation ∞ X

G(z) =

gn z −n

(6.307)

n=−∞

mit z = exp(j2πf tA ) resultierende Frequenzgang ebenfalls in G∗ (f ) =

∞ X n=−∞

gn cos(2πf n tA ) − j

∞ X

gn sin(2πf n tA )

(6.308)

n=−∞

zerlegt werden. Da die beiden Darstellungen (6.306) und (6.308) des Frequenzganges übereinstimmen müssen, muss der Tangens des Phasenwinkels gleich sein: ∞ P

tan(ψ(f )) =

n=−∞ ∞ P n=−∞

gn sin(2πf ntA ) !

= gn cos(2πf ntA )

sin(2πf tA (nv + α) − ψ0 ) . cos(2πf tA (nv + α) − ψ0 )

(6.309)

Durch Ausmultiplizieren erhält man die notwendige Bedingung an reellwertige Systeme mit abschnittsweise linearer Phase als ∞ X n=−∞

 !  gn sin 2πf tA (n − nv − α) + ψ0 = 0 ,

f ∈ R.

(6.310)

6.5 Linearphasige Systeme

367

Diese Bedingung wird in den nächsten Abschnitten beim Entwurf linearphasiger FIRFilter angewendet. Dabei wird zur Vereinfachung der Betrachtungen in den folgenden Ableitungen M als gerade angenommen. Für ungerade M kann man durch entsprechende Methoden Frequenzgänge ableiten. Hierzu hat man lediglich k = M 2 = 1 M −1 1 M −1 + , d. h. n = und α = zu setzen. v 2 2 2 2

6.5.2

Linearphasige FIR-Filter

FIR-Filter lassen sich besonders einfach linearphasig entwerfen. Hierzu sei die Impulsantwort gn als reellwertig angenommen und habe nur im Beobachtungszeitraum [0, M tA ] von null verschiedene Werte. Nach obiger Bemerkung wird im Folgenden angenommen, dass M gerade sei. Die Verzögerung k (vgl. Beispiel 6.34) entspreche der halben Beobachtungszeit, d. h. nv =

M , 2

α = 0.

(6.311)

Bei Gültigkeit von (6.311) kann man nach [OSB04] zwei Fälle unterscheiden, in denen die Bedingung (6.310) erfüllt wird. Diese werden in den nächsten beiden Abschnitten untersucht.

6.5.2.1

Symmetrische Impulsantwort um M/2

Die Symmetriebedingung lautet mathematisch gn = gM −n ,

n = 0, . . . ,

M , 2

(6.312)

und die abschnittsweise konstante Phasenverschiebung beträgt ψ0 = 0 bzw. ψ0 = ±π. Wir fassen bei der Summation in (6.310) jeweils zwei Terme zusammen: M        2 X M M ! = 0. + gM −n sin 2πf tA −n gn sin 2πf tA n − 2 2 n=0

(6.313)

Hierbei ist das doppelte Auftreten des Summanden mit Index M 2 nicht von Belang, da dieser jeweils mit dem Faktor null gewichtet wird. Durch Zusammenfassen der Sinusterme erhält man M 2 X

n=0

   M = 0, (gn − gM −n ) sin 2πf tA n − {z } | 2

f ∈ R.

=0

Die Bedingung (6.310) ist also für den gewählten Ansatz erfüllt.

(6.314)

6 Zeitdiskrete Systeme

368

Zur Berechnung des Frequenzganges wird ein Phasenglied mit der halben Beobachtungszeit nv = M 2 abgespalten: G∗ (f ) =

M X

gn e−j2πf tA n = e−j2πf tA

n=0

M 2

M X

M

gn e−j2πf tA (n− 2 ) .

(6.315)

n=0

Bei der Summation werden wiederum zwei Terme zusammengefasst: M  2 −1 h i X M M M G∗ (f ) = e−j2πf tA 2  gn e−j2πf tA (n− 2 ) + gM −n e−j2πf tA ( 2 −n) + g M  2

n=0



 M 2

= e−j2πf tA

M 2

−1 X  h i M M   gn e−j2πf tA (n− 2 ) + ej2πf tA (n− 2 ) + g M  .  2   n=0 {z } |

(6.316)

= 2 cos(2πf tA (n− M 2 ))

|

{z

= Rg (f )

}

Somit besitzen Systeme mit symmetrischen Impulsantworten nach (6.312) stets eine lineare Phase. Die Amplitudenfunktion M 2

Rg (f ) =

−1 X

n=0

  M  + gM 2 gn cos 2πf tA n − 2 2

(6.317)

ist eine gerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit geradem M und symmetrischer Impulsantwort lautet damit G∗ (f ) = Rg (f ) e−j2πf tA

M 2

.

(6.318)

Aus (6.317) ist ersichtlich, dass Rg (f ) auch ein negatives Vorzeichen annehmen kann. Man erhält aus Rg (f ) den Amplitudengang Ag (f ), indem man das negative Vorzeichen von Rg (f ) in eine Phasenverschiebung von ψ0 = ±π umwandelt. An den Nulldurchgängen von Rg (f ) treten dann Phasensprünge auf. Ag (f ) ist eine gerade Funktion in f .

6.5.2.2

Schiefsymmetrische Impulsantwort um M/2

Im Fall der Schiefsymmetrie gilt M , (6.319) 2 und die Phasenverschiebung beträgt ψ0 = ± π2 . Aus der Bedingung für die Schiefsymmetrie der Impulsantwort folgt unmittelbar, dass die Impulsantwort die Eigenschaft g M = 0 erfüllen muss. Die Summation in (6.310) lautet: gn = −gM −n ,

n = 0, . . . ,

2

M X

   π M = 0. ± gn sin 2πf tA n − 2 2 n=0

(6.320)

6.5 Linearphasige Systeme

369

Wieder werden bei der Summation jeweils zwei Terme zusammengefasst: M      2 X M M ) + gM −n cos 2πf tA ( − n) = 0. gn cos 2πf tA (n − 2 2 n=0

(6.321)

Daraus ergibt sich M 2 X

n=0

  M (gn + gM −n ) cos 2πf tA (n − ) = 0, | {z } 2

f ∈ R.

(6.322)

=0

Aufgrund des Ansatzes ist also die Bedingung in (6.310) erfüllt. Bei der Bestimmung des Frequenzganges wird ein mit −j multipliziertes Phasenglied mit der halben Beobachtungszeit nv = M 2 abgespalten: G∗ (f ) =

M X

−j2πf tA n

gn e

n=0

−j2πf tA M 2

= −j e

M X

 gn

n=0

M 1 − e−j2πf tA (n− 2 ) j

 (6.323)

M

−j2πf tA M 2

= −j e

2  X M M 1 −gn e−j2πf tA (n− 2 ) − gM −n e−j2πf tA ( 2 −n) j n=0 M

−j2πf tA M 2

= −j e

2 X

gn

n=0

 M 1  j2πf tA (n− M ) 2 e − e−j2πf tA (n− 2 ) . j | {z }

(6.324)

= 2 sin(2πf tA (n− M 2 ))

|

{z

= Ru (f )

}

Ein System mit einer schiefsymmetrischen Impulsantwort nach (6.319) besitzt eine verallgemeinert lineare Phase. Die Amplitudenfunktion M

Ru (f ) =

2 X

  M  2 gn sin 2πf tA n − 2 n=0

(6.325)

ist eine ungerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit geradem M und schiefsymmetrischer Impulsantwort lautet damit   M G∗ (f ) = Ru (f ) −j e−j2πf tA 2 (6.326) = Ru (f ) e−j2πf tA

M 2

−j π 2

.

(6.327)

Der Verzögerung um die halbe Beobachtungszeit tA M 2 ist eine Phasenverschiebung von π2 überlagert. Den Amplitudengang Au (f ) erhält man, indem man das negative Vorzeichen von Ru (f ) bei negativen Frequenzen über einen Phasensprung von ψ0 = ±π umwandelt. Der Amplitudengang Au (f ) ist eine gerade Funktion in f .

6 Zeitdiskrete Systeme

370

6.5.2.3

Beispiele

Anhand zweier Beispiele werden die in den letzten Abschnitten berechneten Amplitudenfunktionen dargestellt. Hierzu wird eine zu M 2 symmetrische bzw. schiefsymmetrische Impulsantwort vorgegeben, aus welcher nach (6.317) bzw. (6.325) die Amplitudenfunktionen berechnet werden. Die Amplitudenfunktion ergibt sich als eine gerade Funktion Rg (f ) im Fall einer symmetrischen Impulsantwort und als eine ungerade Funktion Ru (f ) im Fall einer schiefsymmetrischen Impulsantwort. Beispiel 6.36: FIR-Filter linearer Phase mit symmetrischer Impulsantwort Angesetzt wird für den symmetrischen Fall ein Filter mit der Impulsantwort: ( 4 für 0 ≤ n ≤ M M2 n 2 gn = . (6.328) M 4 für 2 < n ≤ M M 2 (M − n) Diese Impulsantwort gn und die zugehörige gerade Funktion Rg (f ) sind in Abbildung 6.21 dargestellt. • 2/M

0,8 0,6 0,4 0,2 0

0 0

M/2

−0,2 −5

M

0

5

Abbildung 6.21: Beispiel eines FIR-Filters mit linearer Phase und symmetrischer Impulsantwort für tA = 0,1 s.

Beispiel 6.37: FIR-Filter linearer Phase mit schiefsymmetrischer Impulsantwort Als Beispiel für eine schiefsymmetrische Impulsantwort wird  4 n für 0 ≤ n ≤ M −   2 −1  M (M −2) M für n = 2 gn = 0   4  (M − n) für M + 1 ≤ n ≤ M M (M −2)

(6.329)

2

betrachtet. Diese ist zusammen mit der aus (6.325) resultierenden Funktion Ru (f ) in Abb. 6.22 dargestellt. •

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme 2/M

371

0,6 0,4 0,2

0

0 −0,2 −0,4

−2/M

−0,6 0

M/2

M

−0,8 −5

0

5

Abbildung 6.22: Beispiel eines FIR-Filters mit linearer Phase und schiefsymmetrischer Impulsantwort für tA = 0,1 s.

6.6

Zeitdiskrete Darstellung kontinuierlicher Systeme

Zeitdiskrete Systeme dienen dazu, zeitdiskrete Signale zu verarbeiten. Da zeitdiskrete Signale von sich aus nicht in der Natur vorkommen, können nur zeitkontinuierliche Signale nach der Abtastung zeitdiskret verarbeitet und anschließend rekonstruiert werden. Mit der Kenntnis des Aliasing und den Möglichkeiten der Rekonstruktion kann man ein zeitdiskretes System S zur Verarbeitung zeitkontinuierlicher Signale aufbauen, wie es in Abb. 6.23 dargestellt ist. Es besteht aus einem Tiefpass mit der Grenzfrequenz fg zur Bandbegrenzung des zeitkontinuierlichen Signals y(t), sofern das Signal nicht von vornherein bandbegrenzt ist. Es folgt ein Abtaster zur Abtastung des Signals, der mit einer Abtastfrequenz fA entsprechend dem Abtasttheorem mit fA > 2 · fg

(6.330)

betrieben wird. Damit der bandbegrenzende Tiefpass keine zu steile Flanke zwischen Durchlass- und Sperrbereich aufweisen muss, wählt man in der Praxis für fA einen Wert, der ein Vielfaches der 3 dB-Grenzfrequenz des Tiefpasses beträgt. Nach der Abtastung steht das zeitdiskrete Signal yn zur Verfügung, das anschließend in einem zeitdiskreten System (z. B. einem Computer) zum Signal zn verarbeitet und dem DigitalAnalog-Umsetzer zugeführt wird. Das Rekonstruktionsfilter erzeugt hieraus das zeitkontinuierliche Ausgangssignal z(t).

Abbildung 6.23: Aufbau eines zeitdiskreten Systems zur Verarbeitung kontinuierlicher Signale.

6 Zeitdiskrete Systeme

372

6.6.1

Umsetzung der Übertragungsfunktion

Die Aufgabe eines solchen zeitdiskreten Systems besteht darin, zeitkontinuierliche Systeme nachzubilden. Das zeitdiskrete System besitzt dabei eine Übertragungsfunktion G(z), die in ihrem Verhalten der zeitkontinuierlichen Übertragungsfunktion G(s) so nahe wie möglich kommt. Eine Anwendung ist z. B. der Entwurf zeitdiskreter Filter in Abschnitt 6.7. Die Aufgabe der zeitdiskreten Darstellung einer zeitkontinuierlichen Übertragungsfunktion wird im Folgenden durch drei Ansätze behandelt. 1. Die Impulsantwort eines Systems charakterisiert das System. Tastet man nun die Impulsantwort ab, so ist das Verhalten in den Abtastpunkten identisch. 2. Die Pole und die Nullstellen der Übertragungsfunktion charakterisieren das System. Diese kann man mittels der nichtlinearen Abbildung z = estA

(6.331)

in den z-Bereich übertragen. 3. Das Problem der fehlenden Integration im zeitdiskreten Bereich kann durch das Verfahren der numerischen Integration beseitigt werden.

6.6.2

Impulsinvarianz

Die Impulsantwort g(t) eines zeitkontinuierlichen Systems S charakterisiert das System. Durch Abtastung der Impulsantwort mit der Abtastzeit tA erhält man eine zeitdiskrete Impulsantwort gn , deren z-Transformierte G(z) die Übertragungsfunktion des zeitdiskreten Systems ist, welches das zeitkontinuierliche System darstellen soll. Satz 6.38: Impulsinvarianz Tastet man die Impulsantwort g(t) eines zeitkontinuierlichen Systems S mit der Abtastzeit tA ab, gn = g(ntA ) ,

n ∈ Z,

(6.332)

und transformiert die zeitdiskrete Impulsantwort in den z-Bereich, so spricht man von Impulsinvarianz. Der Übergang von der zeitkontinuierlichen zur zeitdiskreten Übertragungsfunktion wird wie folgt beschrieben: G(s)

=⇒ |{z} L−1

g(t)

=⇒ |{z} Abtastung

gn

=⇒ |{z} Z

G(z) .

(6.333) •

Beispiel 6.39: Impulsinvarianz Ein zeitkontinuierliches System mit der Übertragungsfunktion G(s) =

1 T

s+

1 T

(6.334)

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

373

soll durch das Verfahren der Impulsinvarianz mit Hilfe eines zeitdiskreten Systems dargestellt werden. Aus der zugehörigen Impulsantwort g(t) =

1 −t/T e · σ(t) T

(6.335)

folgt durch Abtasten gn =

1 −ntA /T e · σn . T

(6.336)

Durch z-Transformation erhält man die Übertragungsfunktion G(z) =

z 1 T z − e−tA /T

(6.337)

des zeitdiskreten Systems. In Abb. 6.24 werden alle hier behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme verglichen. • Zeitkontinuierliches System

1 0,5 0

0,5

0

1

2

3

4

Rechteckregel vorwärts

1

0

1

2

3

4

Rechteckregel rückwärts

0,5

0

1

2

3

4

Trapezregel

1

0

0

1

2

3

4

Pol- und Nullstellenübertragung

1

0,5 0

0

1

0,5 0

Impulsinvariantes System

1

0,5

0

1

2

3

4

0

0

1

2

3

4

Abbildung 6.24: Vergleich der behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme für T = 1 s und tA = 0,1 s: Eingangssignal ye (t) bzw. ye,n ( ), kontinuier) sowie diskretes Ausgangssignal ya,n ( ). liches Ausgangssignal ya (t) (

6 Zeitdiskrete Systeme

374

6.6.3

Pol- und Nullstellenübertragung

Die Pole und die Nullstellen einer Übertragungsfunktion charakterisieren das System. Überträgt man diese mit der nichtlinearen Abbildung z = estA ,

(6.338)

so erhält man ein System mit gleichem Übertragungsverhalten. Dabei muss beachtet werden, dass Nullstellen im Unendlichen s0 → ∞ auf z0 = −1 (= ˆ halbe Abtastfrequenz) übertragen werden. In solchen Fällen besitzt das Zählerpolynom der zeitkontinuierlichen Übertragungsfunktion G(s) einen kleineren Grad als das Nennerpolynom. Bei der Pol- und Nullstellenübertragung bleibt der Proportionalitätsfaktor unberücksichtigt. Dieser wird daher so gewählt, dass die beiden Systeme bei einer bestimmten Frequenz f0 gleiches Übertragungsverhalten !

G(s = j2πf0 ) = G z = ej2πf0 tA



(6.339)

besitzen. In der Regelungstechnik wird meistens statische Genauigkeit verlangt, weshalb hier die Frequenz f0 = 0 Hz gewählt wird: !

G(s = 0) = G(z = 1) .

(6.340)

Zusammenfassend ergibt sich folgender Satz zur Anwendung der Pol- und Nullstellenübertragung.

Satz 6.341: Pol- und Nullstellenübertragung Bei der Pol- und Nullstellenübertragung zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme geht man nach folgenden Schritten vor: 1. Alle Pole und Nullstellen von G(s) werden mit der Abbildung z = estA

(6.342)

in den z-Bereich übertragen. 2. Alle Nullstellen im Unendlichen, s0 → ∞, werden auf den Punkt z0 = −1 übertragen. 3. Der fehlende Proportionalitätsfaktor wird durch gleiches Übertragungsverhalten !

G(s = j2πf0 ) = G z = ej2πf0 tA



bei einer bestimmten Frequenz f0 berechnet.

(6.343) •

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

375

Beispiel 6.40: Pol- und Nullstellenübertragung Das zeitkontinuierliche System mit der Übertragungsfunktion G(s) =

1 T

s+

(6.344)

1 T

soll durch das Verfahren der Pol- und Nullstellenübertragung bei statischer Genauigkeit mit Hilfe eines zeitdiskreten Systems dargestellt werden. Die Polstelle und die Nullstelle werden entsprechend übertragen: s∞ = −

1 T

s0 = ∞

=⇒

z∞ = e−tA /T ,

=⇒

z0 = −1 .

(6.345)

Hieraus ergibt sich der folgende Ansatz für die zeitdiskrete Übertragungsfunktion: G(z) = k ·

z+1 . z − e−tA /T

(6.346)

Bei statischer Genauigkeit muss die Bedingung G(s = 0) = 1 = G(z = 1) = k

2 1 − e−tA /T

=⇒

k=

1 − e−tA /T 2

(6.347)

eingehalten werden. Zusammenfassend lässt sich die zeitdiskrete Übertragungsfunktion wie folgt angeben: G(z) =

1 − e−tA /T z+1 · . 2 z − e−tA /T

(6.348)

Das Resultat dieser Vorgehensweise ist ebenfalls in Abb. 6.24 zu sehen.

6.6.4



Numerische Integration

Die numerische Integration von Differentialgleichungen, wie sie LTI-Systemen zugrunde liegen, führt immer zu Lösungen. Das numerische Integrationsverfahren soll am Beispiel der einfachen Differentialgleichung y˙ a (t) = ye (t)

◦−•

s Ya (s) = Ye (s)



G(s) =

1 Ya (s) = Ye (s) s

(6.349)

eingeführt werden. Die Integration der Differentialgleichung mit dem Anfangswert ya (−∞) = 0 zum Abtastzeitpunkt n tA lässt sich auf den alten Ausgangswert zum

6 Zeitdiskrete Systeme

376 Zeitpunkt (n − 1) tA zurückführen: (n−1) Z tA

ntA Z

ya (ntA ) =

ye (t) dt = −∞

ntA Z

ye (t) dt + −∞

 = ya (n − 1) tA +

ye (t) dt

(6.350)

(n−1) tA ntA Z

ye (t) dt .

(6.351)

(n−1) tA

Der zweite Term auf der rechten Seite lässt sich nun durch unterschiedliche Verfahren annähern; die drei einfachsten werden in Abb. 6.25 veranschaulicht.

Abbildung 6.25: Verfahren zur numerischen Integration.

Bei der Rechteckregel vorwärts wird das Integral durch ye,n−1 tA und somit der Ausgangswert durch ya,n ≈ ya,n−1 + tA · ye,n−1

(6.352)

angenähert. Dessen Übertragungsfunktion GI (z) = entspricht für s=

tA tA z −1 = 1 − z −1 z−1

z−1 tA

(6.353)

(6.354)

der zeitkontinuierlichen Übertragungsfunktion GI (s) für die Integration. Bei der Rechteckregel rückwärts wird das Integral durch ye,n tA und somit der Ausgangswert durch ya,n ≈ ya,n−1 + tA · ye,n

(6.355)

angenähert. Dessen Übertragungsfunktion GI (z) =

tA z tA = −1 1−z z−1

(6.356)

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

377

entspricht für s=

z−1 tA z

(6.357)

der zeitkontinuierlichen Übertragungsfunktion GI (s) für die Integration. Bei der Trapezregel wird das Integral durch den Wert tA (ye,n−1 + ye,n )/2 und somit das Ausgangssignal durch ya,n ≈ ya,n−1 +

 tA · ye,n + ye,n−1 2

angenähert. Dessen Übertragungsfunktion  tA −1 tA z + 1 2 1+z · = GI (z) = 1 − z −1 2 z−1

(6.358)

(6.359)

entspricht für s=

2 z−1 · tA z + 1

(6.360)

der zeitkontinuierlichen Übertragungsfunktion GI (s) für die Integration. Die Trapezregel wird auch als bilineare Transformation bezeichnet. Satz 6.41: Numerische Integration Bei der numerischen Integration entsteht die zeitdiskrete Übertragungsfunktion G(z) durch Ersetzen der Variablen s der zeitkontinuierlichen Übertragungsfunktion durch: s=

z−1 tA

(Rechteckregel vorwärts),

(6.361)

s=

z−1 tA z

(Rechteckregel rückwärts) oder

(6.362)

s=

2 z−1 · tA z + 1

(Trapezregel / bilineare Transformation).

(6.363) •

Abbildung 6.26 zeigt die Abbildung der s-Ebene in die z-Ebene bei den drei verschiedenen Verfahren zur numerischen Integration. Liegen alle Pole des kausalen zeitkontinuierlichen Systems G(s) in der linken s-Halbebene, so ist das System stabil. Wird die linke s-Halbebene auf das Innere des Einheitskreises der z-Ebene abgebildet, so bleibt das System auch bei der numerischen Integration stabil. Dies ist ein Vorteil, den man nicht missen möchte. Bei der Rechteckregel vorwärts kann ein im s-Bereich stabiles System im z-Bereich instabil werden.

6 Zeitdiskrete Systeme

378

1

1

1

Abbildung 6.26: Abbildung der s-Ebene in die z-Ebene bei den verschiedenen Verfahren zur numerischen Integration.

Beispiel 6.42: Numerische Integration Das zeitkontinuierliche System mit der Übertragungsfunktion G(s) =

1 T

s+

(6.364)

1 T

soll durch Anwendung der numerischen Integration mit allen drei Methoden zeitdiskret dargestellt werden. Dabei erhält man mit Hilfe der Rechteckregel vorwärts tA 1 T = z−1T 1 = , (6.365) G(z) = G(s) z−1 z − (1 − tTA ) + tA T s=

tA

mit der Rechteckregel rückwärts 1 G(z) = G(s) = z−1T z−1 t z + s= zt

A

(1 +

tA T z tA T )z

A

und mit der Trapezregel G(z) = G(s) 2 s= t

1 T

=

A

= · z−1 z+1

2 tA

·

1 T z−1 z+1

+

1 T

=

(6.366)

−1

tA T z

+ tTA (2 + tTA )z − (2 −

tA T )

(6.367)

6.7 Frequenzselektive Filter

379

die einzelnen Übertragungsfunktionen G(z) des zeitdiskreten Systems. In Abbildung 6.24 werden auch diese Verfahren aufgezeichnet und können daher mit den anderen vorgestellten Verfahren verglichen werden. •

6.7

Frequenzselektive Filter

Frequenzselektive Filter haben die Aufgabe, im Frequenzbereich vorgegebene Eigenschaften exakt oder approximativ zu erfüllen. Zu den Forderungen gehört es, Signalanteile bei bestimmten Frequenzen möglichst unbeeinflusst zu lassen und bei anderen Frequenzen möglichst vollständig zu unterdrücken. Man gibt ein kontinuierliches Toleranzschema für den Amplitudengang vor (siehe Abschnitt 4.5). Entsprechend der Einteilung zeitdiskreter LTI-Systeme wird das Toleranzschema durch FIR- oder IIRSysteme approximiert (Abschnitt 6.4.5). Dabei werden die unterschiedlichen Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme gemäß Abschnitt 6.6 angewendet. Die im Folgenden vorgestellten Verfahren stellen lediglich eine kleine Auswahl aller möglichen Ansätze dar. Zuerst wird jeweils die Vorgehensweise beim Entwurf des zeitdiskreten Filters dargestellt. Danach folgen zu jeder Vorgehensweise Beispiele, die diesen Entwurf veranschaulichen und darüber hinaus weitere Anregungen bieten.

6.7.1

Kausales FIR-Filter über Impulsinvarianz

Nichtrekursive Systeme, d. h. FIR-Filter, haben nur Nullstellen und eventuell einen mehrfachen Pol im Ursprung. Deshalb muss die Zahl der Abtastwerte N (= ˆ Fensterlänge) ausreichend groß gewählt werden. Der Entwurf in Satz 6.43 baut auf dem Verfahren der Impulsinvarianz aus Abschnitt 6.6.2 auf und liefert ein kausales Filter. Satz 6.43: FIR-Filterentwurf, Methode der Impulsinvarianz Der Entwurf von kausalen FIR-Filtern gemäß der Methode der Impulsinvarianz vollzieht sich in folgenden Schritten: 1. Festlegen des Toleranzschemas und des gewünschten kontinuierlichen Amplitudenganges A(f ) entsprechend Abschnitt 4.5.1. Da das zeitdiskrete Filter eine Approximation des zeitkontinuierlichen Filters darstellt, muss zum Ausgleich von Approximationsfehlern die Ordnung K größer gewählt werden. 2. Über die Entwurfsmethoden bei zeitkontinuierlichen Systemen erhält man die kontinuierliche kausale Übertragungsfunktion G(s), indem man aus dem Ansatz |G(s)|2 = G(s) G(−s) durch Auswahl der Pole links der imaginären Achse unmittelbar eine stabile Übertragungsfunktion G(s) erhält. 3. Mittels der inversen einseitigen Laplace-Transformation berechnet man die kausale Impulsantwort aus G(s): g(t) = L−1 {G(s)} .

(6.368)

6 Zeitdiskrete Systeme

380

4. Das Abtasten der Impulsantwort führt auf eine zeitdiskrete Funktion bzw. Folge gn , entsprechend Abschnitt 6.6.2. Dabei muss das Abtasttheorem eingehalten werden. 5. Die Fensterung dieser Folge mit einer kausalen Fensterfunktion wn der Länge N erzeugt eine zeitbegrenzte Impulsantwort gn0 = gn · wn .

(6.369)

Die kausale Fensterfunktion hat den maximalen Funktionswert bei n = 0 und fällt dann nach N − 1 ab. Die Auswirkungen des Leckeffekts lassen sich durch geschickte Wahl der Fensterfunktion reduzieren (Abschnitt 5.6). 6. Überprüfung, ob das gewünschte Toleranzschema eingehalten wird. Dazu wird der Amplitudengang A(f ) = |G(f )| über die diskrete Fourier-Transformation oder über die z-Transformation mit z = ej2πf tA berechnet. Sollte das Toleranzschema nicht eingehalten werden, so wird der Entwurf von G(s) mit höherer Ordnung K wiederholt oder die Länge N des Fensters erhöht. Die resultierende Differenzengleichung des FIR-Filters lautet nach Satz 6.2 ya,n =

N −1 X

ye,n−i gi .

(6.370)

i=0



Beispiel 6.44: Entwurf eines kausalen FIR-Filters Das Entwurfsziel sei ein Tiefpass mit der Durchlassfrequenz fD und der Sperrfrequenz fS = 2fD . Weitere Einschränkungen ergeben sich durch die geforderte Dämpfung im Durchlass- und Sperrbereich. Als Vorgabe soll das Signal im Durchlassbereich maximal um δD = 0,2 gedämpft werden, während im Sperrbereich eine Dämpfung auf δS = 0,1 gefordert wird. Diese Anforderung wird durch die Abbildung auf ein normiertes Toleranzschema erfüllt, welches als Vorgabe für den Entwurf eines normierten Tiefpasses dient. Hierdurch entsteht ein Toleranzschema, wie es bereits in Beispiel 4.55 betrachtet wurde und welches in Abb. 6.27 erneut dargestellt ist. In dieser Abbildung findet sich auch der aus dem Butterworth-Entwurf resultierende Amplitudengang. Die Berechnung des zeitkontinuierlichen Butterworth-Filters in Beispiel 4.55 ergab mit fD0 = 1 ,

fS0 = 2 ,

δD = 0,2

und

δS = 0,1

(6.371)

die Parameter ∆D =

3 4

und

∆S =



99 ≈ 9,95 .

(6.372)

Daraus folgt schließlich: K = 4,

ε=

∆D = 4,8122 · 10−4 , (2π)K

G0 = 2,078 · 103 .

(6.373)

6.7 Frequenzselektive Filter

381 1 0,8 0,6 0,4 0,2 0

0

1

2

3

Abbildung 6.27: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 4.

Beim Übergang auf eine zeitdiskrete Übertragungsfunktion und anschließender Rekonstruktion des Amplitudengangs entstehen Approximationsverluste. Das angestrebte Toleranzschema wird weniger gut oder gar nicht erfüllt. Damit auch das zeitdiskrete Filter das in Abb. 6.27 vorgegebene Toleranzschema einhält, wird die Ordnung K des zeitkontinuierlichen Filters deutlich erhöht. Die Toleranzparameter δD und δS bleiben unverändert, weshalb auch die Werte für ∆D und ∆S dieselben Werte wie bei vorigem Entwurf besitzen. Mit K = 8 anstelle von K = 4 ergeben sich die Parameter ε und G0 jetzt zu ε = 4,9141 · 10−8

bzw.

G0 = 3,239 · 106 .

(6.374)

Die Pole links der imaginären Achse sind s∞1 s∞3 s∞5 s∞7

= −1,2707 + j 6,3881 = −5,4156 + j 3,6186 = −6,3881 − j 1,2707 = −3,6186 − j 5,4156

s∞2 s∞4 s∞6 s∞8

= −3,6186 + j 5,4156 = −6,3881 + j 1,2707 = −5,4156 − j 3,6186 = −1,2707 − j 6,3881

(6.375)

und die dazugehörigen Residuen r1 r3 r5 r7

= −27,7113 + j 3,6372 = 2,2241 + j 0,5969 = 33,1749 + j 25,4767 = 5,7845 + j 10,0281

r2 r4 r6 r8

= −24,2100 + j 13,9650 = 1,4026 − j 1,8264 = −1,5066 − j 11,4784 = 10,8419 − j 40,3991 .

(6.376)

Dieses zeitkontinuierliche Filter (K = 8) erfüllt das Toleranzschema natürlich wesentlich besser als gefordert, vgl. Abb. 6.28 (links). Durch Rücktransformation der einzelnen Partialbrüche der Übertragungsfunktion erhält man die in Abb. 6.28 (rechts) dargestellte kausale Impulsantwort. Man erkennt, dass die zeitkontinuierliche Impulsantwort für K = 8 bereits relativ „früh“ vernachlässigbar geringe Werte annimmt. Somit kann diese zumindest aus

6 Zeitdiskrete Systeme

382 Butterworth-Filter der Ordnung K=8

Impulsantwort bei Ordnung K=8

3

1

2

0,8 0,6

1

0,4

0

0,2

−1

0 0

1

2

−2

3

0

1

2

3

4

5

Abbildung 6.28: Amplitudengang und kausale Impulsantwort des zeitkontinuierlichen Systems für K = 8. Abgetastete Impulsantwort

3 2 1 0 −1 −2

0

1

2

3

4

5

Abbildung 6.29: Abgetastete Impulsantwort des zeitkontinuierlichen Systems für K = 8.

praktischer Sicht als zeitbegrenzt betrachtet werden. Der Amplitudengang A(f ) ist zwar nicht wirklich bandbegrenzt, jedoch nehmen die Spektralanteile für hohe Frequenzen stark ab. Bereits bei der Frequenz fg = 4 Hz ist die Dämpfung   |G(fg )| a(fg ) = −20 lg > −20 lg(0,001) = 60 dB . (6.377) |G(0)| Die Funktion g(t) wird abgetastet, um die zeitdiskrete Impulsantwort gn = g(ntA ) zu erhalten (Methode der Impulsinvarianz). Aufgrund obiger Bemerkung über fg ist eine Abtastfrequenz von fA = 10 Hz ausreichend, was einer Abtastzeit von tA = 0,1 s entspricht. Hierdurch entsteht die in Abb. 6.29 dargestellte Impulsantwort. Um ein FIR-Filter zu erhalten, muss die Impulsantwort zeitlich gefenstert werden. Es sollen zwei verschiedene Fensterfunktionen untersucht werden – ein kausales Rechteckfenster der Form  1 für 0 ≤ n ≤ N − 1 (6.378) rn = 0 sonst

6.7 Frequenzselektive Filter

383

und ein rechteckgefenstertes, kausales Gauß-Fenster der Form  rG,n =

e−(ntA ) 0

2

/(2a2 )

für 0 ≤ n ≤ N − 1 . sonst

(6.379)

Beide Fenster sind in Abb. 6.30 dargestellt. Rechteckfenster für N=30

Gauß−Fenster für a=2,5 und N=30

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 0

10

20

30

40

0

10

20

30

40

Abbildung 6.30: Zeitdiskretes Rechteck- und Gauß-Fenster (a = 2,5) für N = 30.

Begrenzt man mittels dieser Fenster die (bereits abgetastete) Impulsantwort auf N = 30 Werte, so erhält man die FIR-Impulsantworten gnR , n = 0, . . . , 29, für das Rechteckfenster und gnRG , n = 0, . . . , 29, für das rechteckgefensterte Gauß-Fenster, welche in Abb. 6.31 in den beiden oberen Grafiken dargestellt sind. In den weiteren Betrachtungen werden der Einfachheit halber die hochgestellten Kennzeichnungen unterdrückt und die Impulsantworten stets mit gn bezeichnet. Diese zeitdiskreten Impulsantworten sollen nun darauf untersucht werden, inwiefern der dazugehörige Amplitudengang das geforderte Toleranzschema erfüllt. Zu diesem Zweck unterziehen wir die Impulsantworten (durch Nullen fortgesetzt) der z-Transformation und bestimmen daraus den Amplitudengang aus A(f ) = |G(f )|: j2πf tA

G(f ) = G z = e



=

N −1 X

gn e−j2πf ntA .

(6.380)

n=0

Das Resultat ist ebenfalls in Abb. 6.31 dargestellt. Der resultierende Amplitudengang verletzt das Toleranzschema im Durchlassbereich, bietet aber gleichzeitig Reserve im Sperrbereich und im Übergangsbereich. Diese Tatsache wird für einen neuerlichen Entwurf verwendet. Hierzu kann man folgendermaßen vorgehen: Der Amplitudengang A(f ) wird mittels Skalierung nach rechts verschoben. Dies geschieht über die Abbildung f 7→

f , α

α ∈ (1, fS0 ) .

(6.381)

6 Zeitdiskrete Systeme

384 3

Rechteckgefensterte Impulsantwort für N=30

Gauß−gefensterte Impulsantwort für a=2,5 und N=30 3

2

2

1

1

0

0

−1

−1

−2

0

10

20

30

40

50

Rechteckfenster (N=30)

1,5

−2

0

10

20

30

40

50

Rechteckgefenstertes Gauß−Fenster (a=2,5, N=30) 1,5

1

1

0,5

0,5

0

0 0

1

2

3

0

1

2

3

Abbildung 6.31: Gefensterte Impulsantworten des FIR-Filters und rekonstruierte Amplitudengänge.

Hierzu ist eine Skalierung der Übertragungsfunktion G(s) mit dem Parameter α erforderlich: s . (6.382) G(s) 7→ G α Die Übertragungsfunktion G(s) geht in die folgende skalierte Übertragungsfunktion über: s G0 αK G0 = K = K . (6.383) Gα (s) = G  Q s Q α (s − α s∞ν ) α − s∞ν ν=1

ν=1

α

Da G (s) durch Skalierung aus G(s) entstanden ist, ergibt sich für die Impulsantwort nach dem Ähnlichkeitssatz der Laplace-Transformation (Gleichung (4.129)) n  s o g α (t) = L−1 {Gα (s)} = L−1 G = α g(α t) . (6.384) α Mit dem Faktor α = 1,3 resultiert für den skalierten Amplitudengang und die skalierte Impulsantwort der Verlauf in Abb. 6.32, welche sich die Reserve im Übergangsbereich zu Nutze macht.

6.7 Frequenzselektive Filter

385

Mit α=1,3 skaliertes BW−Filter der Ordnung K=8

Skalierte Impulsantwort

3

1

2

0,8 0,6

1

0,4

0

0,2

−1

0 0

1

2

−2

3

0

1

2

3

4

5

Abbildung 6.32: Amplitudengang und Impulsantwort des skalierten, kausalen zeitkontinuierlichen Filters der Ordnung K = 8. Skalierte rechteckgefensterte Impulsantwort für N=30 3

Skalierte Gauß−gefensterte Impulsantwort für N=30 3

2

2

1

1

0

0

−1

−1

−2

0

10

20

30

40

50

Skaliertes Rechteckfenster (N=30)

1,5

−2

0

10

20

30

40

50

Skaliertes rechteckgefenstertes Gauß−Fenster (a=2,5, N=30) 1,5

1

1

0,5

0,5

0

0 0

1

2

3

0

1

2

3

Abbildung 6.33: Abgetastete und gefensterte Impulsantworten der skalierten FIR-Filter sowie deren rekonstruierte Amplitudengänge.

Nach dem Abtasten ergibt sich die Impulsantwort: gα,n = g α (n tA ) = α g(α n tA ) .

(6.385)

Bei Anwendung eines Rechteck- und eines Gauß-Fensters erhält man die in Abbildung 6.33 dargestellten Impulsantworten und die jeweiligen Amplitudengänge.

6 Zeitdiskrete Systeme

386 Phasengang des rechteckgefensteren FIR−Filters 4

Gruppenlaufzeit des rechteckgefensteren FIR−Filters 0,1

2

0,05

0

0

−2

−0,05

−4 −5

0

−0,1 −5

5

Phasengang des Gauß−gefensteren FIR−Filters 4

0

5

Gruppenlaufzeit des Gauß−gefensteren FIR−Filters 0,05

2 0

0

−2 −4 −5

0

5

−0,05 −5

0

5

Abbildung 6.34: Phasengang und Gruppenlaufzeit der skalierten FIR-Filter.

Diese halten jetzt das geforderte Toleranzschema ein. Aufgrund der Diskretisierung entsteht lediglich bei Verwendung des Rechteckfensters eine Überschreitung im Durchlassbereich, die aber vernachlässigbar ist. Die Phase dieser beiden Filter ist in Abb. 6.34 zu sehen. Man erkennt, dass die Phasenverzerrungen bei Verwendung des Gauß-Fensters deutlich geringer ausfallen. •

6.7.2

Akausales FIR-Filter über die DFT

Für die zweite Entwurfsmethode eines akausalen FIR-Filters wählt man als Ausgangspunkt die Fourier-Transformation zeitdiskreter Signale (vgl. Abschnitt 5.3.1), die durch 1

Y∗ (f ) =

∞ X

yn e−j2πf ntA ,

n=−∞

Z2tA yn = tA

Y∗ (f ) ej2πf ntA df

(6.386)

− 2t1 A

gegeben ist. Wählt man einen bestimmten Amplitudengang A(f ) im Nyquist-Band, A(f ) = |G∗ (f )| ,

(6.387)

6.7 Frequenzselektive Filter

387

so wird mit den bekannten Methoden aus Abschnitt 4.5 das zeitkontinuierliche Filter G(s) entworfen. Aus diesem könnte man mit der Rücktransformation, d. h. durch Integration über das Nyquist-Band, unmittelbar die komplexen Koeffizienten 1

Z2tA gn = tA

G(f ) ej2πf ntA df ,

n ∈ Z,

(6.388)

− 2t1 A

eines unendlich langen akausalen Filters bestimmen. Zur numerischen Berechnung wird der Frequenzgang im Nyquist-Band diskretisiert, Gk = G(f = k∆f ) ,

k = −N, . . . , N − 1 ,

(6.389)

wobei die Abstände ∆f =

fA 2N

(6.390)

gewählt werden, damit 2N komplexe Werte Gk im Nyquist-Band liegen. Damit wird das Integral in (6.388) über die Rechteckregel durch gn = tA

N −1 X

∆f · G(k∆f ) ej2πk∆f ntA

(6.391)

k=−N

=

N −1 kn 1 X Gk ej2π 2N , 2N k=−N

n = −N, . . . , N − 1 ,

(6.392)

angenähert. Die Impulsantwort ist auf den Bereich n = −N, . . . , N − 1 beschränkt. Die Diskretisierung im Frequenzbereich bewirkt eine periodische Wiederholung der Impulsantwort mit der Periode T0 = 2N tA im Zeitbereich. Die resultierende Berechnung der diskreten Impulsantwort entspricht der inversen DFT (Definition 5.2). Zur Reduzierung des Leckeffekts kann die Impulsantwort mit einem weiteren akausalen Fenster multipliziert werden, z. B. dem symmetrischen, akausalen Gauß-Fenster: gn0 = gn · w2N,n .

(6.393)

Das Filter ist akausal, so dass das Ausgangssignal erst um N Abtastwerte verzögert vorliegt. Man verzögert deshalb die Ausgabe des Ausgangssignals, damit zur Berechnung des Wertes ya,n0 auch der Wert ye,n0 +N einfließen kann. Satz 6.394: FIR-Filterentwurf durch inverse DFT Der Entwurf von FIR-Filtern durch die inverse DFT vollzieht sich in sieben Schritten:

6 Zeitdiskrete Systeme

388

1. Festlegen des Toleranzschemas und des gewünschten Amplitudenganges A(f ). Bei Bedarf etwas steilere Flanken für A(f ) annehmen, um Diskretisierungsfehler auszugleichen. 2. Entwurf eines zeitkontinuierlichen Filters G(s) gemäß den Vorgaben. 3. Festlegen der Zahl 2N der Abtastpunkte im Nyquist-Band. Abtastung des Frequenzgangs Gk = G(f = k∆f ) mit ∆f gemäß Gleichung (6.390). 4. Berechnen der zeitdiskreten Impulsantwort über die inverse DFT gn =

N −1 1 X Gk ej2πkn/2N , 2N k=−N

n = −N, . . . , N − 1 .

(6.395)

5. Gewichten der Impulsantwort mit einer akausalen, diskreten Fensterfunktion w2N,n , um den Leckeffekt zu verringern: gn0 = gn · w2N,n .

(6.396)

6. Bei Bedarf Verschiebung der Impulsantwort um N Abtastschritte: 0 gn00 = gn−N

◦−•

G00 (z) = G0 (z) · z −N .

(6.397)

Durch die Verschiebung ergibt sich eine zusätzliche lineare Phasendrehung, vgl. Satz 6.32. 7. Überprüfung, ob das gewünschte Toleranzschema eingehalten wird. Sollte dies nicht der Fall sein, so wird ein modifizierter Amplitudengang A(f ) höherer Ordnung angesetzt oder die Zahl der Abtastpunkte N erhöht. Danach beginnt man bei Punkt 2. • Die resultierende Differenzengleichung für das verschobene, akausale Filter ist nach Satz 6.2 die Faltungssumme ya,n−N =

2N −1 X

0 ye,n−i · gi−N .

(6.398)

i=0

Beispiel 6.45: Entwurf eines akausalen FIR-Filters Für den Entwurf eines Filters nach dem Satz 6.394 wird der Amplitudengang vorgegeben. Hierbei wird von Anfang an ein zeitkontinuierliches Filter G(s) höherer Ordnung mit K = 6 angesetzt, damit nach der Durchführung der Entwurfsschritte das Toleranzschema eingehalten wird. Der Amplitudengang A(f ) ist in Abb. 6.35 zusammen mit den N = 10 Abtastwerten im Bereich [0, fA /2] dargestellt (fA = 10 Hz). Für die weitere Rechnung wird nach (6.392) jedoch nicht der Amplitudengang A(f ), sondern der abgetastete Frequenzgang Gk benötigt. Somit sind also die Abtastwerte komplex, da sie aus der Abtastung des Frequenzganges G(k ∆f ) entstehen. Aus A(f ) werden deshalb das zeitkontinuierliche Filter G(s) und daraus die komplexen Abtastwerte Gk = G(s = j2πtA k · ∆f ) berechnet.

6.7 Frequenzselektive Filter

389 Butterworth-Filter der Ordnung K=6 1 0,8 0,6 0,4 0,2 0 0

1

2

3

4

5

Abbildung 6.35: Vorgegebener und abgetasteter Amplitudengang. 0,3

Impulsantwort des Filters der Ordnung K=6

Amplitudengang des akausalen, zeitdiskreten Filters 1

0,2

0,8

0,1 0

0,6

−0,1

0,4

−0,2

0,2

−0,3 −0,4 −1

0 −0,5

0

0,5

1

0

1

2

3

4

5

Abbildung 6.36: Impulsantwort und rekonstruierter Amplitudengang des akausalen, zeitdiskreten Filters.

Die resultierende Impulsantwort, die entsprechend der inversen DFT in (6.392) berechnet wird, findet sich in Abb. 6.36 zusammen mit dem für dieses Filter rekonstruierten Amplitudengang. Das Toleranzschema wird aufgrund der Diskretisierung im Durchlassbereich nach oben hin verletzt. Um dies zu korrigieren, wird die Impulsantwort mit einem symmetrischen GaußFenster gemäß Abb. 6.37 gefenstert. Nach der Fensterung entsteht die Impulsantwort in Abb. 6.38. Man erkennt, dass aufgrund der Fensterung Signalenergie verloren geht. Der hieraus rekonstruierte Amplitudengang verletzt das Toleranzschema nun „nach unten“, d. h. durch eine zu starke Dämpfung im Durchlassbereich. Um dies auszugleichen, kann man wie in Abschnitt 6.7.1 einen skalierten Entwurf durchführen, wobei hier als Skalierungsfaktor α = 1,2 gewählt wird. Dies führt auf den skalierten Amplitudengang in Abb. 6.39. Wendet man nun auf diesen die Entwurfsmethode erneut an und gewichtet das Resultat mit einem Gauß-Fenster, so entstehen die Impulsantwort und deren re-

6 Zeitdiskrete Systeme

390 Gauß−Fenster für a=0,8

1 0,8 0,6 0,4 0,2 0 −1

−0,5

0

0,5

1

Abbildung 6.37: Symmetrisches Gauß-Fenster zur Fensterung der Impulsantwort.

Gefensterte Impulsantwort des Filters der Ordnung K=6 0,2 0,1

Amplitudengang des akausalen, gefensterten Filters 1 0,8

0

0,6

−0,1

0,4 0,2

−0,2 −0,3 −1

0 −0,5

0

0,5

1

0

1

2

3

4

5

Abbildung 6.38: Impulsantwort und rekonstruierter Amplitudengang des gefensterten, akausalen, zeitdiskreten FIR-Filters.

Mit α=1,2 skaliertes BW−Filter der Ordnung K=6 1 0,8 0,6 0,4 0,2 0 0

1

2

3

4

5

Abbildung 6.39: Skalierter vorgegebener Amplitudengang für α = 1,2.

6.7 Frequenzselektive Filter

391

Skalierte Impulsantwort des Filters der Ordnung K=6 0,3 0,2

Amplitudengang des skalierten, gefensterten Filters 1 0,8

0,1 0

0,6

−0,1

0,4

−0,2

0,2

−0,3 −0,4 −1

0 −0,5

0

0,5

1

0

1

2

3

4

5

Abbildung 6.40: Impulsantwort und rekonstruierter Amplitudengang des skalierten, gefensterten, akausalen, zeitdiskreten FIR-Filters.

Phasengang des skalierten, gefensterten FIR−Filters 4

Gruppenlaufzeit des skalierten, gefensterten FIR−Filters 1

2

0,5

0

0

−2

−0,5

−4 −5

0

5

−1 −5

0

5

Abbildung 6.41: Phasengang und Gruppenlaufzeit des skalierten, gefensterten, akausalen, zeitdiskreten FIR-Filters.

konstruierter Amplitudengang in Abb. 6.40. Die Phase des Filters ist in Abb. 6.41 zu sehen. •

6.7.3

IIR-Filter über die zeitdiskrete Übertragungsfunktion

Der in Abschnitt 4.5 verwendete Ansatz soll wiederum Ausgangspunkt für den Entwurf eines zeitdiskreten IIR-Filters sein. Dazu wird aus dem zeitkontinuierlichen Filter G(s) mittels der in Abschnitt 6.6 vorgestellten Methoden ein zeitdiskretes Filter G(z) entworfen. Hierbei entfällt die Fensterung, welche zum Entwurf von FIR-Filtern notwendig war. Die Impulsantwort ist unendlich lang, das System besitzt in seiner kanonischen Darstellung eine rekursive Komponente.

6 Zeitdiskrete Systeme

392 Satz 6.399: IIR-Filterentwurf

Unter Verwendung der Ansätze bei den zeitkontinuierlichen Systemen in Abschnitt 4.5 erfolgt der Entwurf frequenzselektiver IIR-Filter in vier Schritten [KK18]. 1. Vorgabe des kontinuierlichen Toleranzschemas. 2. Entwurf eines zeitkontinuierlichen, frequenzselektiven Filters im s-Bereich, was auf eine Übertragungsfunktion G(s) führt. 3. Übertragung der zeitkontinuierlichen Übertragungsfunktion G(s) des frequenzselektiven Filters in eine zeitdiskrete Darstellung G(z) mit einer der Methoden, die in Abschnitt 6.6 aufgezeigt wurden. Dazu muss die Abtastzeit so gewählt werden, dass das Abtasttheorem eingehalten wird. 4. Überprüfung, ob das gewünschte Toleranzschema für  A(f ) = G z = ej2πf tA

(6.400)

eingehalten wird. Sollte dies nicht der Fall sein, so wird der Entwurf von G(s) mit höherer Ordnung K wiederholt. • Bemerkung 6.46 Entsteht bei der zeitdiskreten Darstellung der zeitkontinuierlichen Übertragungsfunktion G(s) eine gebrochenrationale zeitdiskrete Übertragungsfunktion G(z), so kann aus G(z) unter Beachtung der Verschiebungsregel der z-Transformation unmittelbar die das System beschreibende Differenzengleichung bestimmt werden. Durch fortlaufende Berechnung der Differenzengleichung wird das IIR-Filter auf einem Mikrorechner realisiert. • Bemerkung 6.47 Anstelle der im Punkt 4 vorgeschlagenen Erhöhung der Ordnung K kann bei geringen Abweichungen vom Toleranzschema evtl. die in Beispiel 6.44 verwendete Skalierung benutzt werden. Davon wird im folgenden Beispiel Gebrauch gemacht. • Der Entwurf des zeitkontinuierlichen, frequenzselektiven Filters G(s) erfolgt entsprechend Abschnitt 4.5. Der Übergang auf die zeitdiskrete Darstellung G(z) des zeitkontinuierlichen Systems G(s) verwendet eine der in Abschnitt 6.6 behandelten Methoden. Am häufigsten wird dazu die Trapezregel herangezogen, vgl. Abschnitt 6.6.4. Die entstehenden zeitdiskreten Systeme sind autoregressiv und stellen somit IIR-Filter dar. Beispiel 6.48: Entwurf eines IIR-Filters In diesem Beispiel erfolgt die Konstruktion eines IIR-Filters mit der in Satz 6.399 vorgestellten Methode. Wir geben uns dasselbe Toleranzschema (Abb. 6.27) wie

6.7 Frequenzselektive Filter

393

beim Entwurf der vorherigen FIR-Filter vor. Dieses ergibt die kontinuierliche Übertragungsfunktion G(s) der Ordnung K = 4 nach Beispiel 4.55. Nun muss diese Übertragungsfunktion G(s) in eine zeitdiskrete Systemfunktion G(z) übertragen werden. Bei der Zeitdiskretisierung muss die Abtastzeit festgelegt werden. Das Signal wird wie im ersten Beispiel bei fg = 4 Hz mit einer Dämpfung von 60 dB als bandbegrenzt angesehen. Eine Abtastfrequenz von fA = 10 Hz bzw. eine Abtastzeit von tA = 0,1 s erfüllt dann praktisch das Abtasttheorem. Wir wenden die in Abschnitt 6.6.4 vorgestellte bilineare Transformation an, um aus der zeitkontinuierlichen Übertragungsfunktion G(s) die zeitdiskrete Übertragungsfunktion G(z) zu gewinnen. Es folgt: G0 G(z) = G(s) (6.401) = K   2 z−1 Q 2 z−1 s= t z+1 − s ∞ν A tA z+1 ν=1

 = G0

tA 2

K

(z + 1)K K  Q ν=1

z(1 −

tA 2 s∞ν )

− (1 +

.

(6.402)

tA 2 s∞ν )



Bei Verwendung der bilinearen Transformation ist die resultierende Übertragungsfunktion G(z) im Gegensatz zur Methode der Impulsinvarianz wieder eine gebrochenrationale Funktion. Diese kann dann in eine das System repräsentierende Differenzengleichung überführt werden. Für einen Butterworth-Entwurf der Ordnung K = 4 erhält man die Pole: s∞1 = −2,5838 + j 6,2378 , s∞3 = −6,2378 − j 2,5838 ,

s∞2 = −6,2378 + j 2,5838 , s∞4 = −2,5838 − j 6,2378 .

(6.403)

Die resultierende zeitdiskrete Übertragungsfunktion ist durch G(z) =

0,0054 z 4 + 0,0218 z 3 + 0,0327 z 2 + 0,0218 z + 0,0054 z 4 − 2,3110 z 3 + 2,2223 z 2 − z + 0,1759

(6.404)

gegeben, woraus sich mit der Umformung G(z) =

0,0054 + 0,0218 z −1 + 0,0327 z −2 + 0,0218 z −3 + 0,0054 z −4 (6.405) 1 − 2,3110 z −1 + 2,2223 z −2 − z −3 + 0,1759 z −4

die folgende Differenzengleichung ergibt: ya,n = 0,0054 ye,n + 0,0218 ye,n−1 + 0,0327 ye,n−2 + 0,0218 ye,n−3 + 0,0054 ye,n−4

(6.406)

+ 2,3110 ya,n−1 − 2,2223 ya,n−2 + ya,n−3 − 0,1759 ya,n−4 . Der rekonstruierte Amplitudengang A(f ) = |G(z = ej2πf tA )| dieses IIR-Filters ist in Abb. 6.42 dargestellt.

6 Zeitdiskrete Systeme

394 Verwendung der Trapezregel 1 0,8 0,6 0,4 0,2 0 0

1

2

3

Abbildung 6.42: Rekonstruierter Amplitudengang des IIR-Filters bei Anwendung der bilinearen Transformation.

Das Toleranzschema wird mit dem zeitdiskreten IIR-Filter nur wenig an der Grenze des Durchlassbereiches verletzt. Dafür besteht aber ein ausreichender Abstand zur Grenze des Sperrbereiches. Aus diesem Grund wird eine Skalierung mit α = 1,1 durchgeführt, mit welcher die Reserve im Übergangsbereich genutzt wird. Dies geschieht durch Berechnung der skalierten, zeitkontinuierlichen Übertragungsfunktion s G0 αK Gα (s) = G = K (6.407) Q α (s − α s∞ν ) ν=1

und anschließender Anwendung der bilinearen Transformation: K G α 0 = K Gα (z) = Gα (s) 2 z−1 2 z−1 Q s= t z+1 (s − α s ) ∞ν s= tA z+1 A

(6.408)

ν=1

 = G0

tA 2

K

αK

(z + 1)K K  Q z(1 −

ν=1

tA 2 α s∞ν )

− (1 +

.

(6.409)

tA 2 α s∞ν )



Durch Aα (f ) = |Gα (f )| = Gα (z = ej2πf tA )

(6.410)

entsteht der rekonstruierte Amplitudengang in Abb. 6.43, der das vorgegebene Toleranzschema einhält. Die Phase und die Gruppenlaufzeit des Systems finden sich in Abb. 6.44. Durch Rücktransformation der Übertragungsfunktion und Anwendung der Verschiebungsregel der z-Transformation erhält man die dazugehörige Differenzen-

6.7 Frequenzselektive Filter

395 Skalierung und Verwendung der Trapezregel 1 0,8 0,6 0,4 0,2 0 0

1

2

3

Abbildung 6.43: Rekonstruierter Amplitudengang bei Anwendung der Skalierung und der bilinearen Transformation. 4

0,05

2 0

0

−2 −4 −5

0

5

−0,05 −5

0

5

Abbildung 6.44: Phase und Gruppenlaufzeit bei Anwendung der Skalierung und der bilinearen Transformation.

gleichung: ya,n =0,0073 ye,n + 0,0293 ye,n−1 + 0,0440 ye,n−2 + 0,0293 ye,n−3 + 0,0073 ye,n−4 + 2,1577 ya,n−1 − 1,9940 ya,n−2 + 0,8677 ya,n−3 − 0,1487 ya,n−4 .

6.7.4

(6.411) •

FIR-Filter über Transformation des Frequenzganges

In diesem Abschnitt wird eine Möglichkeit zum Entwurf eines digitalen Filters vorgestellt, welche vom Entwurfsaufwand einfacher als die anderen Methoden ist. Hierzu greifen wir später noch einmal das Beispiel 6.34 auf. Zuerst soll jedoch ein analytischer Zusammenhang zwischen der Impulsantwort und dem gewünschten Frequenzgang hergeleitet werden.

6 Zeitdiskrete Systeme

396

Als Basis der Herleitung dient die Systemfunktion eines zeitdiskreten Systems, ∞ X

G(z) =

gn z −n ,

(6.412)

n=−∞

in welcher die Werte der Impulsantwort als Koeffizienten einer Reihe in der Variablen z auftreten. Aus dieser erhält man den Frequenzgang j2πf tA

G(f ) = G z = e



∞ X

=

gn e−j2πf ntA .

(6.413)

n=−∞

Besitzt die Impulsantwort 2N +1 Werte symmetrisch um den Ursprung, so vereinfacht sich die Summation zu N X

G(f ) =

gn e−j2πf ntA .

(6.414)

n=−N

Dieser Frequenzgang wird analytisch vorgegeben. Mit der Fourier-Transformation zeitdiskreter Signale in Satz 5.6 berechnet sich die zum Frequenzgang G(f ) zugehörige Impulsantwort als fA

Z2

1 gn = fA

j2π fn f

G(f ) e

A

df ,

n = −N, . . . , N .

(6.415)

f − 2A

Ist der gewünschte Frequenzgang eine gerade Funktion in f , so vereinfacht sich die Berechnung der Impulsantwort: fA

2 gn = fA

Z2

  n G(f ) cos 2π f df fA

(6.416)

0 fA

Z2 G(f ) cos(2πntA f ) df ,

= 2tA

n = −N, . . . , N .

(6.417)

0

Die Impulsantwort ist somit ebenfalls eine gerade Wertefolge g−n = gn ,

n = 1, . . . , N ,

(6.418)

die sich mittels symbolischer Intergralberechnungen aus dem gewünschten Frequenzgang ergibt.

6.7 Frequenzselektive Filter

397

Beispiel 6.49: Idealer Tiefpass aus dem Frequenzgang Soll ein idealer Tiefpass mit dem gewünschten Frequenzgang  1 für |f | ≤ fg G(f ) = 0 für |f | > fg

(6.419)

mit den beschriebenen Methoden entworfen werden, so berechnen sich die Werte der Impulsantwort zu: Zfg

fg 2tA gn = 2tA cos(2πntA f ) df = sin(2πntA f ) 2πntA 0 0   fg 2tA fg sin 2πn fA = sin(2πntA fg ) = 2 , n = −N, . . . , N . f 2πntA fA 2πn fAg n6=0



(6.420)

(6.421)

Für den Fall N = 5 und die Frequenzparameter fA = 100 Hz sowie fg = 25 Hz f ergeben sich fAg = 14 und die Werte g−5 = 0,0637 , g−1 = 0,3183 , g3 = −0,1061 ,

g−4 = 0 , g0 = 0,5000 , g4 = 0 ,

g−3 = −0,1061 , g1 = 0,3183 , g5 = 0,0637 .

g−2 = 0 , g2 = 0 ,

(6.422)

Die Impulsantwort ist in Abb. 6.45 dargestellt. 0,6 0,4 0,2 0 −0,2 −5

0

5

Abbildung 6.45: Impulsantwort des einfachen FIR-Filterentwurfs für N = 5.

Die das System beschreibende Differenzengleichung lautet: ya,n =

N X

gi ye,n−i .

(6.423)

i=−N

Der Frequenzgang des Systems ist in Abb. 6.46(a) zu sehen. Da die Zeitfunktion reell und gerade ist, ist der Frequenzgang reell und gerade.

6 Zeitdiskrete Systeme

398 1,5

1,5

1

1

0,5

0,5

0

0

−0,5 −50

0

50

−0,5 −50

(a) N = 5

0

50

(b) N = 25

Abbildung 6.46: Rekonstruierter Frequenzgang des einfachen FIR-Filterentwurfs. 0,6 1

0,4

0,8 0,6

0,2

0,4

0

0,2 0

−20

−10

0

10

20

−0,2

−20

−10

0

10

20

Abbildung 6.47: Gauß-Fenster und gefensterte Impulsantwort des einfachen FIR-Filterentwurfs für N = 25 bei Verwendung eines Gauß-Fensters mit a = 20.

Man erkennt, wie sich das Gibbs’sche Phänomen auswirkt. Die Überschwinger können nach Abschnitt 3.7.2 in ihrer Höhe nicht gedämpft werden. Zur Veranschaulichung dieser Tatsache ist in Abb. 6.46(b) der Frequenzgang eines Filters der Ordnung N = 25 dargestellt. Obwohl dieser den idealen Rechteckverlauf besser wiedergibt, besitzen die Überschwinger dieselbe Höhe wie im Fall N = 5. Um die Überschwinger zu reduzieren, kann die Impulsantwort mit einem GaußFenster multipliziert werden. Das Fenster und die gefensterte Impulsantwort sind in Abb. 6.47 dargestellt. Man erkennt, dass durch die Fensterung die Werte am „Rand“ der Impulsantwort in ihrer Höhe gedämpft werden. Für die gefensterte Impulsantwort zeigt Abb. 6.48 den resultierenden Frequenzgang. Durch Anwendung eines Gauß-Fensters werden die Auswirkungen des Gibbs’schen Phänomens reduziert. Nachteilig an dieser Entwurfsmethode ist, dass kein Toleranzschema angegeben werden kann. Dies schränkt die Möglichkeiten der Einflussnahme ein. Zudem ist eine analytische Lösung des Integrals in (6.417) zur Bestimmung der Werte der

6.8 Spezielle zeitdiskrete Filter

399

1,5 1 0,5 0 −0,5 −50

0

50

Abbildung 6.48: Rekonstruierter Frequenzgang des Gauß-gefensterten einfachen FIR-Filterentwurfs für N = 25 und a = 20.

Impulsantwort notwendig. Auf der anderen Seite ist dieser Entwurf deutlich einfacher als die in den letzten Abschnitten dargestellten Entwürfe. Durch Erhöhung der Zahl der Abtastwerte N kann die Flankensteilheit des Filters erhöht werden. Bei Verschiebung der Impulsantwort um N2 Schritte für Echtzeitanwendungen gibt es aber eine praktische obere Grenze. Da der Phasengang des resultierenden akausalen Filters null ist, eignet sich diese Entwurfsmethode für Anti-Aliasing- und Rekonstruktions-Filter. •

6.8

Spezielle zeitdiskrete Filter

In den folgenden Abschnitten werden verschiedene zeitdiskrete Filter und deren Anwendungen präsentiert.

6.8.1

Zeitdiskrete Hilbert-Transformation

Für praktische Anwendungen wird die Hilbert-Transformierte in zeitdiskreter Form benötigt. Das Ziel dieses Abschnittes ist es, die zeitdiskrete Hilbert-Transformation herzuleiten und deren Eigenschaften zu untersuchen. Hierzu werden Forderungen an das zeitdiskrete Spektrum des analytischen Signals gestellt, welche denjenigen der zeitkontinuierlichen Hilbert-Transformation entsprechen. Die nachfolgenden Betrachtungen finden sich ausführlicher in [OSB04]. Es wird eine Wertefolge zn des zeitdiskreten analytischen Signals angesetzt, deren Spektrum im Bereich negativer Frequenzen definitionsgemäß verschwinden soll: !

Z∗ (f ) = 0

für



fA ≤ f < 0. 2

(6.424)

Man beachte hier die Bedeutung des Begriffes „negative Frequenzen“. Bei zeitdiskreten Signalen sind die betrachteten Spektren periodisch mit der Periode fA . Somit ist

6 Zeitdiskrete Systeme

400

das Analogon zur Auslöschung des analytischen Signals bei negativen Frequenzen in (6.424) durch das Verschwinden des Spektrums im negativen Teil des Nyquist-Bandes gegeben. Aufgrund der Periodizität ergibt sich die Tatsache, dass das Spektrum an der Stelle fA /2 gleich null sein muss. Durch Zerlegung des analytischen Signals in seinen Real- und Imaginärteil, zn = xR,n + j xI,n ,

(6.425)

ergeben sich zwei reelle Folgen xR,n , xI,n zur Darstellung von zn : zn + zn∗ , 2 zn − zn∗ = Im{zn } = . 2j

xR,n = Re{zn } =

(6.426)

xI,n

(6.427)

Mit den jeweiligen Fourier-Transformierten XR (f ), XI (f ) folgt aufgrund der Linearität der Fourier-Transformation im Spektralbereich der Zusammenhang Z∗ (f ) = XR,∗ (f ) + j XI,∗ (f ) .

(6.428)

Die Real- und Imaginärteile der Fourier-Transformierten ergeben sich zu 1 (Z∗ (f ) + Z∗∗ (−f )) , 2 1 j XI,∗ (f ) = (Z∗ (f ) − Z∗∗ (−f )) . 2 XR,∗ (f ) =

(6.429) (6.430)

Die Real- und Imaginärteile von Z∗ (f ) weisen Symmetrien im Frequenzbereich auf. So ist XR,∗ (f ) konjugiert symmetrisch zur Mittenfrequenz null, d. h. ∗ XR,∗ (f ) = XR,∗ (−f ) ,

(6.431)

und XI,∗ (f ) konjugiert punktsymmetrisch, d. h. ∗ j XI,∗ (f ) = −j XI,∗ (−f ) .

(6.432)

Nach (6.424) soll das Spektrum des analytischen Signals im negativen Teil des NyquistBandes verschwinden: !

Z∗ (f ) = XR,∗ (f ) + j XI,∗ (f ) = 0

für



fA ≤ f < 0. 2

(6.433)

Daraus folgt XI,∗ (f ) = j XR,∗ (f )



für

fA ≤ f < 0. 2

(6.434)

Darüber hinaus wird gefordert, dass das Spektrum des analytischen Signals Z∗ (f ) im positiven Teil des Nyquist-Bandes seinem doppelten Realteil entsprechen soll: !

Z∗ (f ) = XR,∗ (f ) + j XI,∗ (f ) = 2XR,∗ (f )

für

0 M 0 für n < 0, n = M 2 verwendet. In Abb. 6.50 sind die endliche Schwingung und die Impulsantwort des Hilbert-Transformators zu sehen. Wenn die Faltung gemäß (5.182) im Frequenzbereich berechnet wird, werden entsprechend Bemerkung 5.32 die Signale zur Vermeidung des Randeffekts auf die doppelte Länge 2M erweitert. Die CosinusSchwingung wird im zweiten Teilintervall mit Nullen aufgefüllt (Zero-Padding). Das entstehende Ausgangssignal yˇM,n = gQ,M,n ∗ yM,n ,

n = 0, . . . , M ,

1

1

0,5

0,5

0

0

−0,5

−0,5

−1

0

20

40

60

80

−1

0

(6.451)

20

40

60

80

Abbildung 6.50: Endliche Cosinus-Schwingung und Impulsantwort des Hilbert-Transformators für tA = 1 s und M = 40.

6 Zeitdiskrete Systeme

404 1 0,5 0 −0,5 −1

0

20

40

60

80

Abbildung 6.51: Faltung einer endlichen Cosinus-Schwingung und einer endlichen kausalen Impulsantwort des Hilbert-Transformators für tA = 1 s und M = 40.

wird nicht exakt der zeitdiskreten Hilbert-Transformation entsprechen, da durch die Beschränkung auf endlich viele Eingangswerte Fehler entstehen. Das Resultat der Faltung findet sich in Abb. 6.51. Man erkennt, dass aufgrund der endlichen Folgen Fehler entstehen und das Ausgangssignal entsprechend der kausalen Impulsantwort um M 2 verschoben ist. Im Bereich um M ist die Näherung aber recht gut. • Nun soll auch noch das andere im Zeitkontinuum behandelte Beispiel zeitdiskret berechnet werden. Beispiel 6.53: Hilbert-Transformation einer zeitdiskreten Sinc-Funktion Auch hier wird zur Erfüllung des Abtasttheorems lediglich der Fall f0 < f2A betrachtet. Ausgangspunkt bildet die abgetastete Sinc-Folge   fA fA fA sin(2πf0 ntA ) . (6.452) ◦−• Y∗ (f ) = r2f0 (f ) , f ∈ − , yn = 2πf0 ntA 2f0 2 2 Wegen Yˇ∗ (f ) = Y (f ) · GQ (f ) folgt für die Hilbert-Transformierte der zeitdiskreten Sinc-Funktion  jfA   für 0 < f < f0  − 2f  0   jfA . (6.453) Yˇ∗ (f ) = + für −f0 < f < 0   2f  0    0 sonst Die Rücktransformation in den Zeitbereich erfolgt durch Integration der Spektralfunktion: 1 yˇn = fA

Z0 −f0

jfA j2πf ntA 1 e df − 2f0 fA

Zf0 0

jfA j2πf ntA e df 2f0

(6.454)

6.8 Spezielle zeitdiskrete Filter

405

 j2πf ntA 0  j2πf ntA f0 j −j + e e −f0 0 2f0 j2πntA 2f0 j2πntA     −j j 1 − e−j2πf0 ntA + ej2πf0 ntA − 1 = 2f0 j2πntA 2f0 j2πntA 1 = (1 − cos(2πf0 ntA )) . 2πf0 ntA

n6=0

=

(6.455) (6.456) (6.457) •

Definition 6.21 Zeitdiskretes analytisches Signal Das zu einer reellen Wertefolge yn gehörige zeitdiskrete analytische Signal bestimmt sich durch zn = yn + j yˇn .

(6.458)

Das Leistungsdichtespektrum des analytischen Signals erhält man wie beim zeitkontinuierlichen analytischen Signal mittels der Autokorrelationsfunktion rzz (k) = ryy (k) + ryˇyˇ(k) + j [ryˇy (k) − ryyˇ(k)]

(6.459)

zu:   4 SY Y (f ) SZZ (f ) = 2 SY Y (f )  0

für 0 < f < f2A für f = 0 für − f2A ≤ f < 0,

. f=

(6.460)

fA 2

Satz 6.54: Zeitdiskretes analytisches Signal Das zu einer reellen Wertefolge yn gehörige zeitdiskrete analytische Signal zn besitzt nur Spektralanteile im Bereich nichtnegativer Frequenzen. Das Leistungsdichtespektrum stimmt dort bis auf den Faktor mit dem Leistungsdichtespektrum von yn überein. • Die Erzeugung eines zeitdiskreten analytischen Signals wird nun an einem Beispiel illustriert. Beispiel 6.55: Zeitdiskretes analytisches Signal Betrachten wir das Signal yn = cos(2πf0 ntA ). Die Hilbert-Transformierte berechnet sich nach Beispiel 6.51 zu yˇn = sin(2πf0 ntA ). Hieraus resultiert das zugehörige zeitdiskrete analytische Signal: zn = yn + j yˇn = cos(2πf0 ntA ) + j sin(2πf0 ntA ) = ej2πf0 ntA .

(6.461)

Dieses hat das Spektrum Z∗ (f ) = Y∗ (f ) + j Yˇ∗ (f ) 1 j = (δ(f + f0 ) + δ(f − f0 )) + j (δ(f + f0 ) − δ(f − f0 )) 2 2

(6.462) (6.463)

6 Zeitdiskrete Systeme

406

1 1 (δ(f + f0 ) + δ(f − f0 )) − (δ(f + f0 ) − δ(f − f0 )) 2 2 = δ(f − f0 ) .

=

(6.464) (6.465)

Es ist zu erkennen, dass aus den zwei Frequenzanteilen bei ±f0 ein einziger Frequenzanteil bei f0 entstanden ist, der aber die doppelte Amplitude besitzt. Das Spektrum erhöht sich im Gegensatz zum Leistungsdichtespektrum „nur“ um den Faktor zwei, da bei der Berechnung des Leistungsdichtespektrums sowohl die Autokorrelationsfunktion des Signals als auch die Autokorrelationsfunktion der zugehörigen Hilbert-Transformierten einfließen. •

6.8.2

Zeitdiskreter Differenzierer

Zur Herleitung der Impulsantwort eines zeitdiskreten Differenzierers überträgt man den Frequenzgang eines zeitkontinuierlichen Differenzierers (Differentiationssatz der Fourier-Transformation) auf den zeitdiskreten Fall. Der Frequenzgang im NyquistBand ist ( j2πf tA für |f | ≤ fg GD,∗ (f ) = (6.466) 0 sonst mit einer vorgegeben Grenzfrequenz fg < wort des zeitdiskreten Differenzierers zu: Zfg gn = tA

fA 2 .

Hieraus berechnet sich die Impulsant-

j2πf tA ej2πf tA n df

(6.467)

−fg

Zfg fg 1 1 = j2πf t2A ej2πf tA n ej2πf tA n df j2πt2A − j2πtA n j2πtA n −fg

n6=0

(6.468)

−fg

  1 tA fg j2πfg tA n e + e−j2πfg tA n − ej2πfg tA n − e−j2πfg tA n n j2πn2 tA fg 1 cos(2πfg tA n) − sin(2πfg tA n) =2 n πn2  f   f  1 fg 1 g g sin π fA n . = fA · cos π fA n − 2 n πn 2 2 2 =

Für fg =

fA 2

gn =

erhält man: ( 0 1 n

cos(πn)

für n = 0 sonst

.

(6.469) (6.470) (6.471)

(6.472)

Die Impulsantwort ist akausal. Für eine kausale Impulsantwort endlicher Länge muss gn auf ein Beobachtungsfenster mit M Abtastschritten begrenzt und um M 2 verzögert

6.8 Spezielle zeitdiskrete Filter

407

Impulsantwort des zeitdiskreten Differenzierers 1 0,5 0 −0,5 −1 0

5

10

15

20

Abbildung 6.52: Impulsantwort des zeitdiskreten Differenzierers für M = 20.

werden. Man erhält für gerade M die schiefsymmetrische kausale Impulsantwort: ( 1 M für 0 ≤ n ≤ M, n 6= M M cos(π(n − 2 )) 2 . (6.473) gD,kaus,n = n− 2 0 für n = M , n < 0, n >M 2 Diese ist in Abb. 6.52 dargestellt. Der dazugehörige Frequenzgang ist GD,kaus,∗ (f ) = 2πf tA e−j(2πf tA

M 2

−π 2)

.

(6.474)

Somit besitzt der kausale Differenzierer eine verallgemeinert lineare Phase, vgl. Abschnitt 6.5.

6.8.3

Korrektur der Gruppenlaufzeit eines Filters

Nach dem Entwurf eines Filters, beispielsweise nach den Methoden in Abschnitt 6.7, weist dieses Filter den gewünschten Amplitudengang oder eine Approximation desselben auf. Soll der Phasengang ebenfalls einen gewünschten Verlauf besitzen, welcher von dem sich durch den Entwurf ergebenden Verlauf abweicht, so muss der Phasengang korrigiert werden. Dies kann durch Hinzufügen oder Abspalten eines Allpasses erreicht werden. Der folgende Abschnitt zeigt eine Möglichkeit auf, mittels derer solch eine Korrektur vorgenommen werden kann. Hierzu wird exemplarisch ein Allpass mit zwei konjugiert komplexen Pol- und Nullstellen verwendet, der die Übertragungsfunktion GA (z) =

∗ (1 − z z∞ν )(1 − z z∞ν ) , ∗ ) (z − z∞ν )(z − z∞ν

z∞ν = rν ejφν ,

|rν | < 1 ,

(6.475)

besitzt. Mit z = ej2πf tA berechnet sich der Frequenzgang dieses Allpasses zu:     1 − rν ej(2πf tA −φν ) · 1 − rν ej(2πf tA +φν )  . (6.476)   GA (f ) = j2πf t  A 1 − r e−j(2πf tA −φν ) · ej2πf tA 1 − rν e−j(2πf tA +φν ) e ν

6 Zeitdiskrete Systeme

408

Die Nullstellenwinkel sind nach der Herleitung in Bemerkung 6.26   rν sin(2πf tA − φν ) β1 = − arctan , 1 − rν cos(2πf tA − φν )   rν sin(2πf tA + φν ) β2 = − arctan 1 − rν cos(2πf tA + φν )

(6.477) (6.478)

und die Polstellenwinkel:  α1 = 2πf tA + arctan

rν sin(2πf tA − φν ) 1 − rν cos(2πf tA − φν )



 α2 = 2πf tA + arctan

rν sin(2πf tA + φν ) 1 − rν cos(2πf tA + φν )



,

(6.479)

.

(6.480)

Insgesamt ist der Phasenwinkel: X X ψ(f ) = βν − αν ν

(6.481)

ν

  rν sin(2πf tA − φν ) = −4πf tA − 2 arctan 1 − rν cos(2πf tA − φν )   rν sin(2πf tA + φν ) − 2 arctan . 1 − rν cos(2πf tA + φν )

(6.482)

Die Gruppenlaufzeit ergibt sich daraus durch Differentiation:   1 − rν2 1 − rν2 τg (f ) = tA + . 1 − 2rν cos(2πf tA − φν ) + rν2 1 − 2rν cos(2πf tA + φν ) + rν2 Im folgenden Beispiel wird durch Hinzufügen des Allpasses aus (6.475) die Korrektur einer Gruppenlaufzeit vorgenommen. Beispiel 6.56: Korrektur einer Gruppenlaufzeit Als Grundlage der folgenden Betrachtungen dient das zeitdiskrete IIR-System aus Beispiel 6.31. Für die Übertragungsfunktion G(z) =

bz , z−a

|a| < 1 ,

(6.483)

ergibt sich mit den Parametern a = b = 0,5 der in Abb. 6.53 dargestellte Amplituden- und Phasengang:  (6.484) A(f ) = G z = ej2πf tA ,   j2πf tA . (6.485) ψ(f ) = arg G z = e

6.8 Spezielle zeitdiskrete Filter

409

1

4

0,8

2

0,6

0

0,4

−2

0,2 0 −0,5

0

−4 −0,5

0,5

0

0,5

Abbildung 6.53: Amplitudengang und Phasengang des zeitdiskreten IIR-Filters für a = b = 0,5. 10

−3

x 10

8 6 4 2 0 −0,5

0

0,5

Abbildung 6.54: Gruppenlaufzeit des zeitdiskreten IIR-Filters für a = b = 0,5.

Die Gruppenlaufzeit entsteht durch Ableiten und Gewichten des Phasengangs τg (f ) = −

1 d ψ(f ) 2π df

(6.486)

und ist in Abb. 6.54 zu sehen. Ab ca. |f | > 0,2 Hz ist die Gruppenlaufzeit negativ. Erwünscht sei ein Filter mit ausschließlich positiver Gruppenlaufzeit. Dazu wird ein Allpass nach (6.475) in Serie geschaltet. Zur Korrektur der Gruppenlaufzeit werden vier verschiedene Pol-Nullstellen-Konfigurationen des Allpasses betrachtet. Hierzu geben wir den Pol z∞ν = rν ejφν mit den willkürlich gewählten Radien rν = 0,2 und rν = 0,75 bzw. den Argumenten φν = 22,5◦ (0,3927 rad) bzw. φν = 122,5◦ (2,138 rad) vor. Mit diesen entstehen für den Allpass GA (z) =

∗ (1 − z z∞ν )(1 − z z∞ν ) ∗ ) (z − z∞ν )(z − z∞ν

(6.487)

6 Zeitdiskrete Systeme

410

10

−3

x 10

10

8

8

6

6

4

4

2

2

0

0

−0,5

10

0

0,5

−3

x 10

−0,5

10

8

8

6

6

4

4

2

2

0

0

−0,5

0

0,5

−3

x 10

0

0,5

0

0,5

−3

x 10

−0,5

Abbildung 6.55: Gruppenlaufzeiten der zeitdiskreten Allpässe GA (z) bei den gewählten Polen.

die in Abb. 6.55 gezeigten Gruppenlaufzeiten. Diese vier verschiedenen Allpässe werden nun auf ihre Eignung zur Korrektur der Gruppenlaufzeit des ursprünglichen IIR-Systems G(z) untersucht. Hierzu schaltet man diese Allpässe zu dem System G(z) in Serie, woraus das neue Gesamtsystem Gges (z) = G(z) · GA (z) entsteht. Wegen |Gges (f )| = |G(f )| · |GA (f )| = |G(f )|

(6.488)

ändert sich der Amplitudengang hierdurch nicht. Der Phasengang des Systems Gges (z) ist ψges (f ) = ψ(f ) + ψA (f ) ,

(6.489)

woraus sich entsprechend für die Gruppenlaufzeit τg,ges (f ) = τg (f ) + τg,A (f )

(6.490)

ergibt. Die aus (6.490) für die vier möglichen Kombinationen entstehenden Gruppenlaufzeiten τg,ges (f ) des Gesamtsystems Gges (z) sind in Abb. 6.56 dargestellt. Ein

6.8 Spezielle zeitdiskrete Filter

10

411

−3

x 10

10

8

8

6

6

4

4

2

2

0

0

−0,5

10

0

0,5

−3

x 10

−0,5

10

8

8

6

6

4

4

2

2

0 −0,5

−3

x 10

0

0,5

0

0,5

−3

x 10

0 0

0,5

−0,5

Abbildung 6.56: Gruppenlaufzeiten des resultierenden Gesamtsystems Gges (z) nach Korrektur der Gruppenlaufzeit bei den gewählten Polen.

Allpass mit rν = 0,2, φν = 2,138 rad bringt für das Gesamtsystem eine annähernd konstante Gruppenlaufzeit und damit eine annähernd lineare Phase. Für rν = 0,2 und φν = 2,138 lautet die Differenzengleichung des phasenkorrigierten IIR-Filters: ya,n − 0,2851 ya,n−1 − 0,0675 ya,n−2 − 0,02 ya,n−3 = 0,02 ye,n − 0,1075 ye,n−1 + 0,5 ye,n−2 .

(6.491) •

6 Zeitdiskrete Systeme

412

6.9

Aufgaben

Aufgabe 6.1: Differenzengleichung Ein zeitdiskretes System S wird durch die Differenzengleichung 2 yn − 2n · yn+1 + 3 · yn+2 = 4 · un − 2 · un+1

beschrieben. (a) Ist das System S linear? (Begründung) (b) Ist das System S zeitinvariant? (Begründung) (c) Ist das System S kausal? (Begründung)

Aufgabe 6.2: z-Transformation des Cosinus hyperbolicus Geben Sie die z-Transformierte und deren Konvergenzgebiet der Folge hn = cosh(αn) σn an und skizzieren Sie das Konvergenzgebiet in der z-Ebene.

Aufgabe 6.3: Inverse z-Transformation Berechnen Sie alle zu X(z) =

2z 2 − 3z z 2 − 3z + 2

gehörenden Zeitfolgen und skizzieren Sie die Konvergenzgebiete.

Aufgabe 6.4: Inverse z-Transformation – Residuensatz Berechnen Sie die zu der z-Transformierten X(z) =

z2 − z z 2 − 2z + 5

gehörende kausale Zeitfolge xn mittels des Residuensatzes. Berechnen Sie anschließend die Werte für x0 , x1 , x2 und überprüfen Sie Ihr Ergebnis durch Polynomdivision bzw. Ausmultiplizieren aus dem Reihenansatz.

6.9 Aufgaben

413

Aufgabe 6.5: Stabilität und Minimalphasigkeit (a) Für welche Werte von c ∈ R ist das zeitdiskrete System G1 (z) =

1 z 2 + 0,25 z + c

stabil? (b) Für welche Werte von b ∈ R und c ∈ R ist das zeitdiskrete System G2 (z) =

z 2 + 0,25 z + b z 2 + 0,25 z + c

stabil und minimalphasig? (c) Im Folgenden wird mit der Übertragungsfunktion G1 (z) mit c=−

3 64

gerechnet. Bestimmen Sie die kausale Impulsantwort g1,n .

Aufgabe 6.6: Zeitdiskretes System, Blockschaltdiagramm Ein reelles, kausales, zeitdiskretes System S wird durch das Blockschaltdiagramm in Abbildung 6.57 beschrieben. (a) Geben Sie eine Differenzengleichung an, die das System beschreibt. (b) Bestimmen Sie die Übertragungsfunktion G(z) des zeitdiskreten Systems S. Geben Sie diese als Quotient zweier Polynome in z an. (c) Bestimmen Sie die Pol- und Nullstellen der Übertragungsfunktion G(z). (d) Skizzieren Sie das Pol-Nullstellen-Diagramm der Übertragungsfunktion G(z). (e) Ist das System stabil? (Begründung). (f) Ist das System minimalphasig? (Begründung). Das System wird mit dem Signal  xn =



1 2

n · σn

angeregt. (g) Wie lautet das Ausgangssignal yn des Systems S?

6 Zeitdiskrete Systeme

414

Abbildung 6.57: Zeitdiskretes System.

Aufgabe 6.7: Zeitdiskrete Darstellung aus Laplace-Übertragungsfunktion Gegeben sei die Übertragungsfunktion G(s) =

s+1 0,1 s + 1

eines zeitkontinuierlichen LTI-Systems. Berechnen Sie die zeitdiskrete Übertragungsfunktion G(z) und deren Pole und Nullstellen aus der zeitkontinuierlichen Übertragungsfunktion mit Hilfe folgender Transformationsvorschriften: (a) Rechteckregel vorwärts, (b) Rechteckregel rückwärts, (c) Trapezregel, (d) Pol- und Nullstellenübertragung bei stationärer Genauigkeit. Die Abtastzeit beträgt tA = 0,25. Aufgabe 6.8: Zeitdiskretes LTI-System Gegeben sei das in Abbildung 6.58 gezeigte zeitdiskrete LTI-System. (a) Berechnen Sie die Zustandsraumdarstellung des Systems mit den Zustandsgrößen z1,n und z2,n . (b) Berechnen Sie die Übertragungsfunktion des Systems. (c) Stellen Sie das System durch seine Differenzengleichung dar. (d) Untersuchen Sie das System auf Stabilität.

6.9 Aufgaben

415

Abbildung 6.58: Zeitdiskretes System.

Aufgabe 6.9: Zeitdiskrete Systeme Ordnen Sie in den Abbildungen 6.59 und 6.60 den Pol-Nullstellen-Diagrammen (arabische Zahlen) die richtigen Impulsantworten (Großbuchstaben) und Amplitudengänge (römische Zahlen) zu.

6 Zeitdiskrete Systeme

416

Abbildung 6.59: Diagramme zu Aufgabe 6.9(a).

Abbildung 6.60: Diagramme zu Aufgabe 6.9(b).

Teil IV

Zeit-Frequenz-Analyse

7

Signaldarstellung mit Frames

Signale werden vorteilhafterweise als Elemente in einem Funktionenraum dargestellt. Funktionensysteme, welche den Funktionenraum aufspannen, müssen die Eigenschaft der Vollständigkeit aufweisen, um alle Funktionen im Funktionenraum darstellen zu können. Neben derartigen Basisfunktionen werden Frames verwendet, mit denen sich leichter eine redundante Signaldarstellung erreichen lässt. Zur Analyse, wo die wesentlichen Signalanteile im Zeit- und Frequenzbereich lokalisiert sind, werden Fensterfunktionen verwendet. Ein wichtiger Begriff ist hierbei die Kompaktheit von Fensterfunktionen, weil davon abhängt, inwiefern aus Fenstern abgeleitete zeit- oder frequenzverschobene Funktionensysteme geeignet sind, um den Funktionenraum aufzuspannen. Dazu wird eine formelle Bedingung für die Kompaktheit formuliert. Aus solchen kompakten Funktionen werden in den folgenden Kapiteln Fenster für die Kurzzeit-Fourier-Transformation (Kapitel 8) und Mutter-Wavelets für die Wavelet-Transformation erzeugt (Kapitel 9).

7.1

Fensterfunktionen

Für die Kurzzeit-Fourier-Transformation und für die Wavelet-Transformation werden Fensterfunktionen benötigt, wie sie bereits in Abschnitt 3.9 diskutiert wurden. Dazu sollen deren Eigenschaften betrachtet werden. Als Erstes wird eine im Vergleich zur Definition 3.36 erweiterte Definition für eine Fensterfunktion formuliert.

Definition 7.1 Fensterfunktion Eine Fensterfunktion w(t) ist ein reelles, symmetrisches, nichtnegatives Energiesignal, dessen Signalenergie überwiegend im Bereich der mittleren Zeit und der mittleren Frequenz lokalisiert ist. Man sagt, dass die Fensterfunktion ein kompaktes Signal ist. Die Symmetrie und die Nichtnegativität bedeuten im Zeitbereich: w(t) = w(−t) ≥ 0 .

(7.1)

7 Signaldarstellung mit Frames

420

Die Fourier-Transformierte des Fensters ist dann ebenfalls symmetrisch: Z∞

−j2πf t

w(t) e

W (f ) = −∞ Z∞

=

Z∞ dt =

w(−t) e−j2πf t dt

(7.2)

−∞ 0

w(t0 ) e−j2π(−f )t dt0 = W (−f ) .

(7.3)

−∞ 2

Die Fensterfunktion ist auf die Signalenergie kw(t)k = 1 normiert. Eine restriktive Definition für die Kompaktheit findet sich in Abschnitt 7.3.6 in Gleichung (7.231).

Abbildung 7.1: Zeitlich verschobene Fensterfunktion.

Das Signal x(t) wird bei der Zeit-Frequenz-Analyse in einem um die mittlere Zeit tw und die mittlere Frequenz fw verschobenen Fenster w(t − tw ) ej2πfw t

◦−•

W (f − fw ) e−j2π(f −fw ) tw

(7.4)

betrachtet (vgl. Abb. 7.1). Dabei entspricht der Verschiebung um fw im Frequenzbereich ein Modulationsfaktor im Zeitbereich. Daraus folgt das „gefensterte“ Signal xw (t) als das Produkt xw (t) = x(t) · w(t − tw ) ej2πfw t .

(7.5)

Die Analyse- und Synthesefenster der Kurzzeit-Fourier-Transformation sind verschobene Fensterfunktionen der mittleren Zeit tw und der mittleren Frequenz fw . Für ein nichtverschobenes Zeitfenster w(t) sind beide Verschiebungen definitionsgemäß null: tw = 0, fw = 0. Die mittlere Zeit und die mittlere Frequenz des um tw bzw. fw verschobenen Fensters w(t − tw ) ej2πfw t werden entsprechend (3.347) und (3.348) wie folgt berechnet: 2 Z∞ w(t − tw ) ej2πfw t t= t· (7.6) 2 dt kw(t − tw ) ej2πfw t k −∞

7.1 Fensterfunktionen Z∞ = −∞

421 2

(t − tw )

|

|w(t − tw )|

d(t − tw ) + tw

2

kw(t − tw )k {z

= 0, da w(t) symmetrisch

Z∞ −∞

|

}

2

|w(t − tw )|

d(t − tw )

2

kw(t − tw )k {z

(7.7)

}

=1

= tw , Z∞

W (f − fw ) e−j2π(f −fw )tw 2 f·

df

W (f − fw ) e−j2π(f −fw )tw 2

f= −∞ Z∞

= −∞

(7.8)

2

(f −fw )

|

|W (f −fw )|

2

kW (f −fw )k {z

d(f −fw ) + fw

= 0 nach Definition

(7.9) Z∞ −∞

|

}

2

|W (f −fw )|

2

kW (f −fw )k {z

d(f −fw )

(7.10)

}

=1

= fw .

(7.11)

Bemerkung 7.1 Verschobene Fenster w(t − tw ) ej2πfw t können aufgrund des komplexen Modulationsfaktors auch Funktionswerte annehmen, die einen negativen Realteil besitzen. •

7.1.1

Verschiebungsinvarianz

Satz 7.2: Verschiebungsinvarianz Die Zeitdauer ∆t und die Bandbreite ∆f des Fensters sind unabhängig von der mittleren Zeit tw und von der mittleren Frequenz fw . Dies ist die Eigenschaft der Verschiebungsinvarianz. • Beweis 7.3 (Verschiebungsinvarianz) Mit dt = d(t − tw ) und df = d(f − fw ) gilt ∆2t

Z∞ = −∞

∆2f

Z∞ = −∞ Z∞

= −∞

w(t − tw ) ej2πfw t 2

2

(t − tw )

2

kw(t − tw ) ej2πfw t k

d(t − tw ) =

Z∞ −∞

2

t02

2

kw(t0 )k

W (f − fw ) e−j2π(f −fw )tw 2 (f − fw )

d(f − fw )

W (f − fw ) e−j2π(f −fw )tw 2 2

|w(t0 )|

dt0 , (7.12)

(7.13)

2

f 02 ·

|W (f 0 )|

2

kW (f 0 )k

df 0 .

(7.14)

7 Signaldarstellung mit Frames

422

Satz 7.4: Innenprodukt verschobener Fensterfunktionen Der Betrag des Innenprodukts zweier gegeneinander zeit- und frequenzverschobener Fensterfunktionen ist nur abhängig von der relativen Verschiebung und unabhängig von der gemeinsamen absoluten Verschiebung. Dabei sind die Zeitverschiebungen tw1 , tw2 und die Frequenzverschiebungen fw1 , fw2 . • Beweis 7.5 (Innenprodukt verschobener Fensterfunktionen) Das Innenprodukt ist

w(t − tw1 ) ej2πfw1 t , w(t − tw2 ) ej2πfw2 t Z∞ w(t − tw1 ) w∗ (t − tw2 ) ej2π(fw1 −fw2 ) t dt = | {z } −∞ Z∞

= −∞

(7.15)

t0

w(t0 ) w∗ (t0 + tw1 − tw2 ) exp(j2π(fw1 − fw2 )(t0 + tw1 )) dt0 | {z } | {z }

= e−j2π∆fw tw1

−∆tw

Z∞ −∞

(7.16)

−∆fw

0

w(t0 ) w∗ (t0 − ∆tw ) e−j2π∆fw t dt0 .

(7.17)

Für den Betrag des Innenproduktes erhält man

w(t − tw1 ) ej2πfw1 t , w(t − tw2 ) ej2πfw2 t

= w(t), w(t − ∆tw ) ej2π∆fw t .

7.1.2

(7.18)

Effektive Zeitdauer und effektive Bandbreite

Die in Anlehnung an die Wahrscheinlichkeitsrechnung als zweites zentriertes Moment der normierten Energiedichte in (3.352) definierte Zeitdauer ∆t ist klein gegenüber der Zeitdauer, in der ein Energiesignal w(t) nennenswerte von null abweichende Amplituden aufweist. Deshalb wird alternativ die effektive Zeitdauer Teff eingeführt. Die Fläche unter dem Betrag des Signals |w(t)| wird aufintegriert und mit einem flächengleichen Rechteck verglichen, dessen eine Seite gleich der maximalen Amplitude wmax des Signals |w(t)| ist (vgl. Abb. 3.27 auf S. 127). Dadurch erhält man eine Abschätzung, für welche effektive Zeitdauer Teff das Signal w(t) nennenswerte Energieanteile aufweist. Dabei sei w(t) auf die Signalenergie eins normiert: Z∞ Teff = −∞

|w(t)| dt . wmax

(7.19)

7.1 Fensterfunktionen

423

Beispiel 7.6: Effektive Zeitdauer Es wird das Energiesignal in Abb. 7.2 betrachtet: r   t 2 w(t) = rT (t) . (7.20) cos π T T p Der Vorfaktor wmax = 2/T stellt die Normierung auf die Signalenergie eins sicher. Für das Signal erhält man die effektive Zeitdauer T /2 Z

Teff =

  2T t dt = ≈ 0,637 · T . cos π T π

−T /2

(7.21) •

Abbildung 7.2: Effektive Zeitdauer einer Cosinus-Halbwelle.

Die effektive Zeitdauer Teff stellt eine gute Wahl für die Zeitverschiebung von Fensterfunktionen zur Zeit-Frequenz-Analyse dar. Bei der Gabor-Reihe wird zum Beispiel die Analyse-Fensterfunktion in diskreten Vielfachen von T ≈ Teff verschoben (siehe Abschnitt 8.2). Dadurch bleibt der Informationsgehalt des Signals erhalten. Beispiel 7.7: Zeitdauer (RMS-Definition) Gegeben sei das auf die Energie eins normierte Signal w(t) aus Beispiel 7.6: r   2 t cos π rT (t) , (7.22) w(t) = T T Z∞ Ew = −∞

2

|w(t)| dt = 1 .

(7.23)

Die Zeitdauer berechnet sich mit tw = 0 nach (3.352) zu 2 ∆2t = T

T /2 Z

−T /2

 t t2 cos2 π dt . T

(7.24)

7 Signaldarstellung mit Frames

424 Das Integral lässt sich mit Hilfe der Produktregel 2

R

u dv = uv −

R

v du lösen. Mit

u=t ,

du = 2t dt , (7.25)  t  t 1 T dv = cos2 π dt , v = t+ (7.26) sin 2π T 2 4π T erhält man:   T /2   T /2 Z     2 T t t 1 T  − ∆2t =  t2 t+ sin 2π t sin 2π dt t2 + T 2 4π T 2π T −T /2 −T /2

 t T /2  t 1 3 T T2 T t + t cos 2π sin 2π − 3 2π 4π 2 T 2π T −T /2   T T2 T T T2 − + 2 cos π + cos π = 4 6 2π 2 2 2 2 T T = − 2 ≈ 0,032673 · T 2 . 12 2π Daraus folgt für die Zeitdauer: =

T2 2 − 4 T





∆t ≈ 0,181 · T , die damit wesentlich kleiner als die effektive Zeitdauer Teff ist, vgl. Abb. 7.3.

(7.27) (7.28) (7.29)

(7.30) •

Abbildung 7.3: Zeitdauer einer Cosinus-Halbwelle.

Die Zeitdauer ∆t ist lediglich ein Maß für die zeitliche Ausdehnung eines Signals. Will man den Zeitbereich kennzeichnen, in dem das Signal w(t) nennenswerte Energieanteile aufweist, so muss man ein Vielfaches von ∆t ansetzen, in diesem Beispiel etwa 4 ∆t . Dies entspricht dem Vorgehen in der Wahrscheinlichkeitsrechnung, in welcher der Vertrauensbereich in Vielfachen der Standardabweichung σ angegeben wird [Pue15]. In Analogie zur effektiven Zeitdauer wird die effektive Bandbreite definiert: Z∞ Feff = −∞

|W (f )| df . Wmax

(7.31)

7.2 Skalierung

425

Für die Beziehung zwischen der effektiven Bandbreite Feff und der Bandbreite ∆f gelten dieselben Überlegungen wie für die Beziehung zwischen der effektiven Zeitdauer Teff und der Zeitdauer ∆t . Beispiel 7.8: Effektive Zeitdauer und Bandbreite des Gauß-Impulses Für den auf die Signalenergie eins normierten Gauß-Impuls  1/4   β β 2 w(t) = exp − t π 2 ◦ | •  1/4   √ π 2 2 2 exp − π f W (f ) = 2 β β ist die effektive Zeitdauer r   Z∞ Z∞ |w(t)| 2π β 2 Teff = dt = exp − t dt = wmax 2 β −∞

(7.33)

(7.34)

−∞

und die effektive Bandbreite r   Z∞ Z∞ 2 β |W (f )| df = exp − π 2 f 2 df = . Feff = Wmax β 2π −∞

(7.32)

(7.35)

−∞

Daraus folgt das Produkt: Teff · Feff = 1 .

7.2

(7.36) •

Skalierung

Bei der Wavelet-Transformation werden „Mutter-Wavelets“ genannte Signale skaliert (vgl. Kap. 9). Dabei werden die mittlere Zeit und die mittlere Frequenz der Wavelets verändert. Deshalb werden im Folgenden die Auswirkungen der Skalierung auf ein Signal betrachtet. Wichtig ist insbesondere die Eigenschaft der Skalierungsinvarianz in Satz 7.9.

7.2.1

Skalierung im Zeit- und Frequenzbereich

Die Zeit t werde vorerst mit dem Faktor a > 0 skaliert. Später werden für die Skalierung allgemeine a ∈ R zugelassen. Das skalierte Signal ist im Zeitbereich   t ya (t) = y , a > 0. (7.37) a

7 Signaldarstellung mit Frames

426

Der gleiche Funktionswert wird erst bei der a-fachen Zeit erreicht, d. h. das Signal ya (t) ist gegenüber y(t) a-fach gestreckt (bei a > 1). Die Fourier-Transformierte ist: Z∞   Z∞    t −j2πf t t t y Ya (f ) = y e dt = a exp − j2πaf d(t/a) a a a −∞

(7.38)

−∞

= a Y (af ) .

(7.39)

Der entsprechende Wert des Spektrums wird bereits bei einer um den Faktor a > 1 niedrigeren Frequenz erreicht, d. h. das Spektrum Ya (f ) ist gegenüber Y (f ) a-fach gestaucht. Die Amplituden von Ya (f ) sind um den Faktor a > 1 vergrößert (vgl. Abb. 7.4). Entsprechendes gilt für a < 1. Aufgrund der Streckung der Funktion ya (t) über der Zeit ist die Signalenergie um den Faktor a größer: Ey,a

Z∞   2 Z∞   2 t t y = y a dt = a a d(t/a) = a · Ey . −∞

(7.40)

−∞

Soll ein Signal trotz Skalierung seine unveränderte Signalenergie behalten, so muss es mit einem Vorfaktor |a|−1/2 versehen werden. Das skalierte Signal lautet dann abweichend von (7.37) t 1 . (7.41) ya (t) = p y a |a|

Abbildung 7.4: Skalierung eines Signals im Zeit- und Frequenzbereich entsprechend (7.37) und (7.39).

7.2 Skalierung

427

Die mittlere Zeit ist wegen der Streckung a mal so groß:

ty,a

1 = Ey,a

Z∞   2 Z∞     2   t t t t 1 2 dt = a t y d y a a Ey a a a

−∞

(7.42)

−∞

= a ty .

(7.43)

Die quadrierte Zeitdauer ist entsprechend

∆2t,a =

1 Ey,a

Z∞

  2 t dt (t − ty,a )2 y a

−∞ Z∞

  2 t − ty a

(7.44)

  2   t t y a d a

(7.45)

" Z∞ # a2 0 2 0 2 0 = (t − ty ) |y(t )| dt = a2 ∆2t . Ey

(7.46)

=

a3 a · Ey

−∞

−∞

Die mittlere Frequenz ist wegen der Skalierung um den Faktor a kleiner:

fy,a

1 = Ey,a =

Z∞ −∞

1 f a |Y (af )| df = a Ey 2

2

Z∞ −∞

2

(af ) |Y (af )| d(af )

1 fy . a

(7.47) (7.48)

Wenn die mittlere Frequenz ungleich null ist, wird diese durch die Skalierung verschoben. Deshalb wurde in Abb. 7.4 ein mittelwertfreies Signal betrachtet, dessen mittlere Frequenz fy 6= 0 ist. Die quadrierte Bandbreite ist entsprechend

∆2f,a

1 = Ey,a =

Z∞

−∞ Z∞

1 a2 Ey

2

(f − fy,a )2 a2 |Y (af )| df 2

((af − fy ) |Y (af )| d(af )

−∞ Z∞

" 1 1 = 2 a Ey

2

(7.49)

−∞

# 2

2

(f 0 − fy ) |Y (f 0 )| df 0 =

(7.50) 1 2 ∆ . a2 f

(7.51)

7 Signaldarstellung mit Frames

428

Geht man von der Beschränkung a > 0 auf allgemeine a ∈ R über, so ergibt sich: Ya (f ) = |a| · Y (af ) ty,a = a · ty 1 fy,a = · fy a

7.2.2

Ey,a = |a| · Ey

(7.52)

∆2t,a = a2 · ∆2t 1 ∆2f,a = 2 · ∆2f a

(7.53) (7.54)

Skalierungsinvarianz

Satz 7.9: Skalierungsinvarianz Die folgenden Verhältnisse Qt und Qf bleiben bei der Skalierung konstant: 2∆t 2∆t,a = , ty ty,a 2∆f 2∆f,a Qf = = . fy fy,a Qt =

(7.55) (7.56)

Man sagt, die Verhältnisse Qt und Qf sind gegenüber der Skalierung invariant. Der Faktor 2 in (7.55) und (7.56) ist willkürlich eingefügt. • Beweis 7.10 (Skalierungsinvarianz) Man rechnet direkt: 2a∆t 2∆t 2∆t,a = = , Qt = ty,a aty ty Qf =

2∆f,a 2∆f /a 2∆f = . = fy,a fy /a fy

(7.57) (7.58)

Bei der Wavelet-Transformation werden die Analyse- und Synthese-Wavelets skaliert. Dabei verändern sich die Zeitdauer proportional zur mittleren Zeit und die Bandbreite proportional zur mittleren Frequenz.

7.3

Hilbert-Räume

Signale können in geeigneten Räumen als Linearkombination von Basisfunktionen dargestellt werden. Bei zunehmender Redundanz des Funktionensystems wird die Kondition der Gram’schen Matrix G aus (2.35) schlechter, welche zur Berechnung der Koeffizienten ai invertiert werden muss. Als Alternative bietet sich die Signaldarstellung in Frames an, bei der die Gram’sche Matrix nicht invertiert werden muss. Frames werden bei der Kurzzeit-Fourier-Transformation (Kapitel 8) und der WaveletTransformation (Kapitel 9) verwendet.

7.3 Hilbert-Räume

7.3.1

429

Basisfunktionen

Es wird ein Signal x(t) betrachtet, das sich in der Form ∞ X

x(t) =

ai ϕi (t)

(7.59)

i=−∞

darstellen lässt. Die Funktionen ϕi (t) werden nun als Vektoren interpretiert, die einen Hilbert-Raum Φ vollständig aufspannen mögen: Φ = span{ϕi (t), i = −∞, . . . , ∞} .

(7.60)

Da sich das Signal x(t) als Linearkombination dieser Vektoren darstellen lässt, ist es ein Element des Hilbert-Raumes Φ. Falls die Funktionen ϕi (t) linear voneinander unabhängig sind, bilden sie eine Basis von Φ. In diesem Fall sind die Koeffizienten ai eindeutig. Der Vektor a = [. . . , a−1 , a0 , a1 , . . .]T

(7.61)

gibt dann die Energieverteilung des Signals x(t) bezüglich der Basisfunktionen {ϕi (t), i = −∞, . . . , ∞} an. Der Hilbert-Raum kann eine endliche Dimension i = 1, . . . , n besitzen. Wir schreiben dann Φn . Um die Koeffizienten ai der Basisentwicklung zu berechnen, wird entsprechend den Gleichungen (2.33)–(2.35) verfahren:      hx(t), ϕ1 (t)i hϕ1 (t), ϕ1 (t)i · · · hϕn (t), ϕ1 (t)i a1      .. . . .  . .. .. .. (7.62)  =   ..  . . hx(t), ϕn (t)i

|

hϕ1 (t), ϕn (t)i · · · hϕn (t), ϕn (t)i an {z } Gram’sche Matrix G

Falls die Gram’sche Matrix G regulär ist, sind die Koeffizienten eindeutig, d. h. {ϕi (t), i = 1, . . . , n} ist eine Basis. Dies ist dann der Fall, wenn die ϕi (t) linear unabhängig sind. Die Berechnungsvorschrift für die Koeffizienten lautet dann:   hx(t), ϕ1 (t)i   .. (7.63) a = G−1 ·  . . hx(t), ϕn (t)i Wie in [KSW08, Bemerkung 8.1] gezeigt wird, ist diese Berechnung der Koeffizienten optimal im Sinne der Minimierung der Fehlerquadrate. In einem Hilbert-Raum bildet die Folge der Basisfunktionen ϕi (t) eine Cauchy-Folge, wenn zu jedem ε > 0 ein Index iε existiert mit der Eigenschaft kϕi (t) − ϕj (t)k < ε für alle Indizes i, j > iε : x ˆn (t) =

n X i=1

ai ϕi (t) ,

n, m > n(ε) : kˆ xn (t) − x ˆm (t)k < ε .

Damit ist die Folge x ˆn (t) eine Cauchy-Folge und besitzt einen Grenzwert in Φ.

(7.64)

7 Signaldarstellung mit Frames

430

Beispiel 7.11: Zeitverschobene Gauß-Impulse als Basisfunktionen Die um Vielfache m T der diskreten Zeit T verschobenen Gauß-Impulse ϕ(t) sollen auf ihre Eignung als Basissystem untersucht werdem:   41   β β 2 ϕm (t) = exp − (t − mT ) . π 2

(7.65)

Es wird die Substitution t0 = t − mT eingesetzt: ϕm (t0 ) =

    41 β 2 β exp − t0 . π 2

(7.66)

1. Zuerst soll gezeigt werden, dass die gegeneinander zeitverschobenen GaußImpulse nicht orthogonal zueinander sind. Dabei wird der zweite Verschiebungsindex als Summe m + ∆m formuliert. Das Innenprodukt ϕm (t0 ), ϕm+∆m (t0 )  Z∞   12  β  02 β 2 exp − t + (t0 + ∆m T ) dt0 = π 2



(7.67)

−∞

  21 Z∞   β β  02 2 = exp − t + t0 + 2t0 ∆m T + ∆m2 T 2 dt0 π 2

(7.68)

2 !  Z∞     21 ∆m β β 2 2 0 dt0 T exp −β t + exp − ∆m T = π 4 2

(7.69)

   21  Z∞   β β 2 2 2 exp − ∆m T = exp −βt00 dt00 π 4

(7.70)

−∞

−∞

−∞

  Z∞   21   β β 2 2 2 exp − ∆m T =2 exp −βt00 dt00 π 4 0 | {z } 1 2 = 21 ( π β)   β = exp − ∆m2 T 2 6= 0 4

(7.71)

(7.72)

ist ungleich null. Allerdings konvergiert das Innenprodukt mit wachsendem ∆m schnell gegen sehr kleine Werte. Die gegeneinander zeitverschobenen Gauß-Impulse sind nicht orthogonal. 2. Als Nächstes soll geprüft werden, ob die zeitverschobenen Gauß-Impulse eine Basis bilden. Dazu wird versucht, einen einzelnen Gauß-Impuls ϕm (t) der

7.3 Hilbert-Räume

431

Zeitverschiebung mT   41       41 β β β 02 β 2 ϕm (t) = exp − (t − mT ) = exp − t π 2 π 2

(7.73)

als Linearkombination aller anderen zeitverschobenen Gauß-Impulse darzustellen: ∞ X

0

ϕˆm (t ) =

∆m=−∞ ∆m6=0

   41  β β 2 exp − (t0 + ∆mT ) c∆m π 2

    14 β 02 β · exp − t = π 2 |

∞ X ∆m=−∞ ∆m6=0

 β  c∆m exp − 2t0 ∆mT + ∆m2 T 2 2

} |

{z

= ϕm (t)

(7.74)

{z

6= 1

6= ϕm (t0 ) .

} (7.75)

Der Summenterm ist stets ungleich eins. Deshalb kann man einen einzelnen Gauß-Impuls nicht exakt als Linearkombination aller anderen zeitverschobenen Gauß-Impulse darstellen. Die zeitverschobenen Gauß-Impulse sind linear voneinander unabhängig. Dies gilt allerdings nur, wenn die Zeitverschiebung T gegenüber der effektiven Zeitdauer Teff (7.19) nicht zu groß gewählt wird, um ein als Linearkombination darzustellendes Signal x(t) ausreichend dicht abzutasten. 3. Nun soll ein einzelner Gauß-Impuls x(t) = ϕ0 (t) durch die Linearkombination der anderen zeitverschobenen Gauß-Impulse angenähert werden. Für die q Gauß-Impulse wird Teff =

 ϕ0 (t) = !



2 2 Teff

 41

∞ X ∆m=−∞ ∆m6=0

2π β ,

also β =

2π Teff 2

gewählt (siehe Abschnitt 7.1.2):

  π 2 exp − 2 t Teff 

c∆m

2 2 Teff

 14

  π 2 exp − 2 (t − ∆mT ) . Teff

(7.76)

(7.77)

Um die Koeffizienten c∆m berechnen zu können, müssen nach den Gleichungen (7.62) und (7.63) die Gram’sche Matrix G und die Innenprodukte hx(t), ϕ1 (t)i, . . . , hx(t), ϕn (t)i bekannt sein.

7 Signaldarstellung mit Frames

432

Hierzu wird allgemein das Innenprodukt hϕi (t), ϕj (t)i berechnet: hϕi (t), ϕj (t)i = Z∞ s = −∞

Z∞

ϕi (t) ϕ∗j (t) dt

(7.78)

−∞

 i π h 2 2 2 (t − iT ) + (t − jT ) dt exp − 2 2 Teff Teff

√ Z∞    2 2π i2 + j 2 2 = exp − 2 t2 − (i + j) T t + T dt . Teff Teff 2

(7.79)

(7.80)

−∞

Um das Integral zu lösen, wird das Argument der Exponentialfunktion quadratisch ergänzt: √ 2 (7.81) hϕi (t), ϕj (t)i = Teff #! " 2 Z∞ 2 2π (i + j) 2 i2 + j 2 2 i+j · exp − 2 − T T + T dt t− Teff 2 4 2 −∞ #! " √ 2 2π (i + j) 2 i2 + j 2 2 2 T − T exp (7.82) = 2 Teff Teff 4 2 2 !  Z∞ 2π i+j · exp − 2 t − dt . (7.83) T Teff 2 −∞

Mit der Substitution u = t −

i+j 2 T

ergibt sich für das Integral    2 ! Z∞ Z∞ 2π 2 Teff 2π i+j exp − 2 u du = √ . dt = T exp − 2 t − Teff 2 Teff 2

−∞

−∞

Damit ergibt sich: " #! 2 2π (i + j) 2 i2 + j 2 2 hϕi (t), ϕj (t)i = exp T − T 2 Teff 4 2   π T2 2 (i − j) . = exp − 2 2 Teff

(7.84) (7.85)

Im Folgenden wird die Basis auf 10 Gauß-Impulse beschränkt, um die Gram’sche Matrix darstellen zu können. Der Gauß-Impuls x(t) = ϕ0 (t) soll durch ϕ−5 (t), . . . , ϕ−1 (t), ϕ1 (t), . . . , ϕ5 (t) angenähert werden. Die Gram’sche Matrix ist damit    π T2 2 G = [hϕi , ϕj i]i,j = exp − (i − j) (7.86) 2 2 Teff i,j

7.3 Hilbert-Räume

433

mit i, j = −5, . . . , 5 und i, j 6= 0. Für T = Teff ist die Gram’sche Matrix 

 1 0,21 0 0 0 0 0 0 0 0 0,21 1 0,21 0 0 0 0 0 0 0     0 0,21 1 0,21 0 0 0 0 0 0     0 0 0,21 1 0,21 0 0 0 0 0     0 0 0 0,21 1 0,21 0 0 0 0   G≈  0 0 0 0 0,21 1 0,21 0 0 0     0 0 0 0 0 0,21 1 0,21 0 0     0 0 0 0 0 0 0,21 1 0,21 0     0 0 0 0 0 0 0 0,21 1 0,21 0 0 0 0 0 0 0 0 0,21 1

(7.87)

gut konditioniert, für T = 0,1 · Teff ist 

1 0,98  0,94  0,87  0,78 G= 0,57  0,46  0,37  0,28 0,21

0,98 1 0,98 0,94 0,87 0,78 0,57 0,46 0,37 0,28

0,94 0,98 1 0,98 0,94 0,87 0,78 0,57 0,46 0,37

0,87 0,94 0,98 1 0,98 0,94 0,87 0,78 0,57 0,46

0,78 0,87 0,94 0,98 1 0,98 0,94 0,87 0,78 0,57

0,57 0,78 0,87 0,94 0,98 1 0,98 0,94 0,87 0,78

0,46 0,57 0,78 0,87 0,94 0,98 1 0,98 0,94 0,87

0,37 0,46 0,57 0,78 0,87 0,94 0,98 1 0,98 0,94

0,28 0,37 0,46 0,57 0,78 0,87 0,94 0,98 1 0,98

 0,21 0,28  0,37  0,46  0,57  0,78  0,87  0,94  0,98 1

(7.88)

dagegen schlecht konditioniert, was die Invertierung erschwert (vgl. Abb. 7.5).

Abbildung 7.5: Zeitverschobene Gauß-Impulse als Basisfunktionen.

7 Signaldarstellung mit Frames

434 0,3 1,5

0,2 1

0,1 0,5

0 –0,1

0

–4

–2

0

2

–2

4

(a) Koeffizienten ai Abbildung 7.6: Annäherung von ϕ0 (t) durch tion der Funktion ϕ0 (t) gelingt nicht.

–1

0

1

2

(b) Gauß-Impulse P5

i=−5,i6=0

ai ϕi (t) mit

T Teff

= 1: Die Approxima-

Außerdem erhält man:    2 exp − π2 TT2 · 25     eff   hϕ0 (t), ϕ−5 (t)i hx(t), ϕ−5 (t)i   ..       .. ..       . 2  . .        hx(t), ϕ−1 (t)i hϕ0 (t), ϕ−1 (t)i  exp − π2 TT2 eff  . = =     hx(t), ϕ1 (t)i   hϕ0 (t), ϕ1 (t)i   π T2    exp − 2 T 2    eff       .. ..       . . . ..       hϕ0 (t), ϕ5 (t)i hx(t), ϕ5 (t)i π T2 exp − 2 T 2 · 25

(7.89)

eff

Nach (7.63) lassen sich nun die Koeffizienten ai berechnen. Sie sind in Abb. 7.6(a) für TTeff = 1 dargestellt. Wie zu erwarten, kann der Gauß-Impuls ϕ0 (t) hiermit nicht angenähert werden, siehe Abb. 7.6(b). Um den Gauß-Impuls ϕ0 (t) besser anzunähern, wird die Zeitverschiebung T der Gauß-Impulse ϕi (t) stark verkleinert. Für TTeff = 0,1 ist das Ergebnis in Abb. 7.7 zu sehen. Wählt man sehr kleine T ≤ 0,1 Teff , so überlappen sich die Basisfunktionen stark. Damit ist das System der Basisfunktionen stark überbestimmt. Mit kleiner werdendem T gehen allerdings die Elemente der Gram’schen Matrix gegen 1, so dass diese schlecht konditioniert ist und nicht mehr invertiert werden kann. Will man deshalb den Funktionenraum Φ mit einem stark überbestimmten Funktionensystem aufspannen, so wählt man dafür anstelle von Basisfunktionen Frames, bei denen – wie später gezeigt werden wird – die Koeffizienten durch Projektion ohne Invertierung der Gram’schen Matrix berechnet werden (vgl. Abschnitt 7.3.4). •

7.3 Hilbert-Räume

435

1

1,5 1

0,5

0,5 0

0 –0,5

–0,5 –4

–2

0

2

–1 –1

4

(a) Koeffizienten ai

–0,5

0

0,5

1

(b) Gauß-Impulse P5

Abbildung 7.7: Annäherung von ϕ0 (t) durch i=−5,i6=0 ai ϕi (t) mit T /Teff = 0,1: Die Funktion ϕ0 (t) und ihre Approximation sind in der Darstellung nicht mehr zu unterscheiden.

Beispiel 7.12: Annäherung der Funktion x(t) = t2 durch ein Basissystem zeitverschobener Gauß-Impulse Nicht alle Basissysteme sind gleich gut geeignet, um bestimmte Signale im Funktionenraum zu approximieren. Dies wird im Folgenden gezeigt. Das Signal x(t) = t2 soll durch die Linearkombination zeitverschobener Gauß-Impulse  ϕi (t) =

2 2 Teff

 14

  π 2 exp − 2 (t − iT ) Teff

(7.90)

dargestellt werden. Da x(t) = t2 kein Energiesignal ist, kann man die sich ergebende Näherung nur für endliche Zeiten betrachten. Um die Koeffizienten ai berechnen zu können, wird die Anzahl der Gauß-Impulse auf 2N + 1 begrenzt: x(t) ≈

N X

ai ϕi (t) .

(7.91)

i=−N

Die Elemente der Gram’schen Matrix G wurden bereits in Beispiel 7.11 berechnet:    π T2 2 G = [hϕi , ϕj i]i,j = exp − mit i, j = −N, . . . , N . 2 (i − j) 2 Teff i,j Um die Koeffizienten ai ermitteln zu können, werden im Folgenden die Innenprodukte hx(t), ϕi (t)i bestimmt: hx(t), ϕi (t)i =

Z∞ t −∞

2



2 2 Teff

 41

  π 2 exp − 2 (t − iT ) dt . Teff

(7.92)

7 Signaldarstellung mit Frames

436

Durch Substitution mit u = t − iT kann das Integral in drei Summanden aufgeteilt werden:     1 Z∞ π 2 2 4 2 exp − 2 u hx(t), ϕi (t)i = · (u + iT ) du (7.93) 2 Teff Teff −∞

 =

 14 " Z∞

2 2 Teff

−∞

    Z∞ π 2 π 2 u exp − 2 u du u exp − 2 u du + 2iT Teff Teff −∞ {z } | 2

=0

+ i2 T 2

Z∞

−∞

 =

 14 "

2 2 Teff

  # π 2 exp − 2 u du Teff #

(7.94)

3 5 1 3 Teff 2 2 1 2 2 + (iT ) Teff = 2− 4 Teff π −1 + (iT ) 2 4 Teff . 2π

(7.95)

Die Koeffizienten ai können nun durch (7.63) berechnet werden. Setzt man Teff = 5 und variiert die Zeit T , mit der die Gauß-Impulse verschoben werden, so zeigt sich, dass die Annäherung der Funktion durch die Gauß-Impulse mit kleinerem T besser wird, siehe Abb. 7.8. Zu beachten ist, dass sich bei der Umsetzung auf einem Computer T /Teff nicht beliebig verkleinern lässt. Für T /Teff → 0 gehen die Elemente der Gram’schen Matrix gegen eins, vgl. (7.85). Die Matrix ist dann schlecht konditioniert, d. h. ihre Determinante liegt nahe bei null, was zu numerischen Problemen führt. Man sieht an diesem Beispiel, dass die Gauß-Impulse als Basisfunktionen zur Darstellung von Signalen nicht in jedem Fall geeignet sind. • 100

100

80

80

60

60

40

40

20

20

0 –10

–5

0

(a)

T Teff

5

10

0 –10

=1

Abbildung 7.8: Annäherung von t2 durch

–5

0

(b) P i

T Teff

5

= 0,5

ai ϕi (t) für Teff = 5 s und N = 25.

10

7.3 Hilbert-Räume

437

Beispiel 7.13: Fourier-Reihe Das Signal x(t) wird als Fourier-Reihe der Periode T gemäß ∞ X

x(t) =

k=−∞

 k  ak exp j2π t T

(7.96)

dargestellt. Man kann die Fourier-Reihe im Frequenzbereich als Reihenentwicklung in frequenzverschobene Dirac-Impulse X(f ) =

∞ X k=−∞

 k ak δ f − T

(7.97)

interpretieren. Der einzelne Dirac-Impuls W (f ) = δ(f ) ist im Frequenzbereich eine ideal kompakte Fensterfunktion. Die inversen Fourier-Transformierten der frequenzverschobenen Dirac-Impulse sind dagegen komplexe harmonische Schwingungen, die sich über das unendliche Zeitintervall −∞ ≤ t ≤ ∞ erstrecken. Die approximierten Signale sind also nur im Frequenzbereich, nicht aber im Zeitbereich kompakt. Daraus resultiert eine eventuell schlechte Auflösung der Signaldarstellung im Zeitbereich, z. B. bei Sprüngen, wo das Gibbs’sche Phänomen auftritt (Abschnitt 3.7.2). Die Fourier-Reihe konvergiert dann langsam und die Signalenergie ist auf viele Koeffizienten ak verteilt. Soll eine zeit- und frequenzverschobene Fensterfunktion w(t) zur Darstellung von Signalen x(t) in einer Reihenentwicklung geeignet sein, so muss Kompaktheit sowohl im Zeit- als auch im Frequenzbereich vorhanden sein. •

7.3.2

Orthonormalität

Definition 7.2 Orthonormale Basis Eine orthonormale Basis {ϕi (t), i = 1, . . . , n} erfüllt die Bedingung hϕi (t), ϕj (t)i = δij .

(7.98)

Die Gram’sche Matrix wird damit zur Einheitsmatrix und die Koeffizienten der Reihenentwicklung von x(t) in die ϕi (t) lassen sich durch die Gleichung ai = hx(t), ϕi (t)i ,

i = 1, . . . , n ,

(7.99)

berechnen. Die Summe über alle möglichen Innenprodukte der Funktionen aus einer orthonormalen Basis ist gleich 1. Dies folgt unmittelbar aus (7.98): ∞ X j=−∞

hϕi (t), ϕj (t)i = 1 ,

i = 1, . . . , n ,

(7.100)

7 Signaldarstellung mit Frames

438

Bei einer orthogonalen Basis ist die Gram’sche Matrix eine Diagonalmatrix mit Elementen gii in der Hauptdiagonalen. Ihre Elemente sind hϕi (t), ϕj (t)i = gii · δij .

(7.101)

Die Inverse der Gram’schen Matrix besitzt dann die Elemente

1 gii δij .

Beispiel 7.14: Sinc-Funktionen als orthogonale Basis Die zeitverschobenen Sinc-Funktionen ϕm (t) = sinc(fA (t − mtA ))

(7.102)

mit fA = 1/tA bilden bei exakter Einhaltung des Abtasttheorems ein orthogonales Basissystem für die auf [− f2A , f2A ] bandbegrenzten Signale, mit dem das zeitkontinuierliche Signal x(t) aus den Abtastwerten xn rekonstruiert werden kann:

sinc(fA (t − mtA )) , sinc(fA (t − ntA ))

t

=

1 δn−m . fA

(7.103)

Dies soll im Folgenden gezeigt werden. Die Fourier-Transformierte der Sinc-Funktion ist das Rechteckfenster der Fläche eins: 1 F{sinc(fA t)} = Rf (f ) = fA A

(

1 fA

0

für |f | ≤ fA /2 sonst

.

(7.104)

Aufgrund der zeitlichen Verschiebung um mtA erhält man im Frequenzbereich einen Demodulationsfaktor e−j2πf mtA . Mit Hilfe des Satzes von Parseval wird das Innenprodukt hsinc(fA (t − mtA )), sinc(fA (t − ntA ))it   1 1 = RfA (f ) e−j2πf mtA , RfA (f ) e−j2πf ntA fA fA f 1 = 2 fA

fZA /2

ej2πf (n−m)tA df =

1 δn−m . fA

(7.105) (7.106)

(7.107)

−fA /2

|

{z

= fA δn−m

}

Die Koeffizienten der Basisentwicklung in die Sinc-Funktionen werden mit Hilfe der Inversen G−1 der Gram’schen Matrix berechnet. Die Elemente von G sind gnm = f1A δn−m , die der Inversen fA δn−m . Damit erhält man für die Koeffizienten

7.3 Hilbert-Räume

439

gerade die Abtastwerte des Signals: an = fA hx(t), sinc(fA (t − ntA ))it   1 = fA X(f ), RfA (f ) e−j2πf ntA fA f fZA /2

=

(7.108) (7.109)

X(f ) ej2πf ntA df

(7.110)

−fA /2

Z∞ =

X(f ) ej2πf t df t=ntA ,

X(f ) = 0 für

−∞

|f | ≥ fA /2

= x(ntA ) .

(7.111) (7.112) •

Satz 7.15: Koeffizientenenergie orthonormaler Basisentwicklungen In einem orthonormalen Basissystem gilt der Satz von Parseval bezüglich der Koeffizienten der Basisentwicklungen hx(t), y(t)i =

∞ X

ai b∗i .

(7.113)

i=−∞



Beweis 7.16 (Koeffizientenenergie orthonormaler Basisentwicklungen) Für das Innenprodukt folgt: * hx(t), y(t)i = =

∞ X

∞ X

+

bj ϕj (t) ai ϕi (t), j=−∞ i=−∞ ∞ ∞ X X ai b∗j hϕi (t), ϕj (t)i {z } | i=−∞ j=−∞ = δij

(7.114) =

∞ X

ai b∗i .

(7.115)

i=−∞

Damit gilt auch 2

kx(t)k = hx(t), x(t)i =

∞ X i=−∞

2

|ai | ,

(7.116)

d. h. die Signalenergie ist bei der Entwicklung in orthonormale Basisfunktionen gleich der Koeffizientenenergie. Dies gilt nicht mehr für orthogonale Basissysteme.

7 Signaldarstellung mit Frames

440

Beispiel 7.17: Berechnung der Signalenergie aus den Abtastwerten eines Signals Wird bei der Abtastung eines Signals x(t) das Abtasttheorem exakt eingehalten, so lässt sich das Signal aus den Abtastwerten x(ntA ) rekonstruieren. In Beispiel 7.14 wurde gezeigt, dass die Rekonstruktion von x(t) der Entwicklung von x(t) in eine orthogonale Basis zeitverschobener Sinc-Funktionen mit den Abtastwerten als Koeffizienten an = x(ntA ) entspricht: ∞ X

x(t) =

n=−∞

x(ntA ) sinc(fA (t − ntA )) .

(7.117)

Die Signalenergie ist 2

kx(t)k = hx(t), x(t)it (7.118) * ∞ + ∞ X X = x(mtA ) sinc(fA (t−mtA )), x(ntA ) sinc(fA (t−ntA )) m=−∞ ∞ X

= =

∞ X

m=−∞ n=−∞ ∞ ∞ X X

n=−∞

t

x(mtA ) x∗ (ntA ) hsinc(fA (t−mtA )), sinc(fA (t−ntA ))it x(mtA ) x∗ (ntA )

m=−∞ n=−∞



1 1 RfA (f ) e−j2πf mtA , Rf (f ) e−j2πf ntA fA fA A

∞ X

∞ X

1 = x(mtA ) x (ntA ) 2 f A m=−∞ n=−∞

fZA /2



(7.119) f

ej2πf (n−m)tA df

(7.120)

−fA /2

| =



{z

= fA δn−m

∞ 1 X 2 |x(ntA )| . fA n=−∞

} (7.121) •

Im Folgenden wird untersucht, wie die Koeffizienten bi , i = 1, . . . , m gewählt werden können, damit das Signal x(t) in einem Unterraum m-ter Ordnung Φm ⊂ Φn , m < n, durch x ˆ(t) =

m X

bi ϕi (t)

(7.122)

i=1

möglichst gut approximiert wird. D. h. das Quadrat der Distanz kx(t) − x ˆ(t)k2

(7.123)

der beiden Signale im Hilbert-Raum Φn = span{ϕi (t), i = 1, . . . , n}

(7.124)

7.3 Hilbert-Räume

441

soll minimal werden. Dabei sei {ϕi (t), i = 1, . . . , n} eine orthonormale Basis des Raumes Φn , der den Unterraum Φm = span{ϕi (t), i = 1, . . . , m}

(7.125)

umfasst. Eine optimale Approximation wird durch die orthogonale Projektion des Signals x(t) auf den Unterraum Φm erreicht: x ˆ(t) = Proj{x(t)} .

(7.126)

Φm

Dies entspricht der Wahl der Koeffizienten bi = ai , i = 1, . . . , m. Der komplementäre Raum Φ⊥ m = span{ϕi (t), i = m + 1, . . . , n}

(7.127)

ist orthogonal zu Φm . Entsprechend sind x ˆ(t) und der Fehler ε(t) = x(t) − x ˆ(t)

(7.128)

orthogonal: hˆ x(t), ε(t)i = 0 .

(7.129)

Dies ist das Projektionstheorem (vgl. Satz 2.26).

7.3.3

Biorthonormalität

Definition 7.3 Biorthonormalität Zwei Funktionensysteme {ϕi (t), i = 1, . . . , n} und {ϕ˜i (t), i = 1, . . . , n} heißen biorthonormal, wenn sie die Bedingung hϕi (t), ϕ˜j (t)i = δij

(7.130)

erfüllen. Die Koeffizienten der Reihenentwicklung von x(t) in das Funktionensystem {ϕi (t)} folgen durch Multiplikation von x(t) = a1 ϕ1 (t) + · · · + aN ϕN (t)

(7.131)

von rechts mit ϕ˜i (t) zu: ai = hx(t), ϕ˜i (t)i .

(7.132)

Die einzelnen Funktionensysteme {ϕi (t), i = 1, . . . , n} oder {ϕ˜i (t), i = 1, . . . , n} müssen für sich alleine weder orthogonal noch Basissysteme sein.

7 Signaldarstellung mit Frames

442

7.3.4

Frames

Im Abschnitt 7.3.1 haben wir linear unabhängige Basisfunktionen ϕi (t) kennengelernt, die einen Hilbert-Raum Φn = span{ϕi (t), i = 1, . . . , n}

(7.133)

aufspannen. Die Koeffizienten ai für die Reihenentwicklung eines Signals x(t) waren dabei nach (7.63)   hx(t), ϕ1 (t)i   .. (7.134) a = G−1 ·  . . hx(t), ϕn (t)i Bei stark redundanten Basissystemen verschlechtert sich allerdings die Kondition der Gram’schen Matrix G. Alternativ dazu kann man einen Hilbert-Raum Φ mit einem Frame aufspannen. Definition 7.4 Frame Ein Frame ist ein Funktionensystem {ϕi (t), i = −∞, . . . , ∞}, welches einen HilbertRaum Φ = Frame{ϕi (t), i ∈ Z}

(7.135)

aufspannt, wobei die Koeffizienten ai als Projektion des darzustellenden Signals x(t) ∈ Φ auf die Funktionen ϕi (t) ai = hx(t), ϕi (t)i

(7.136)

berechnet werden und die Koeffizientenenergie innerhalb endlicher Frame-Grenzen 2

0 < A · kx(t)k ≤

∞ X i=−∞

2

2

|ai | ≤ B · kx(t)k < ∞

(7.137)

bleibt. Die Reihenentwicklung des Signals x(t) in einen Frame ist x(t) =

∞ X i=−∞

hx(t), ϕi (t)i · ϕi (t) .

(7.138)

Die Gram’sche Matrix muss nicht invertiert werden. Außerdem wird nicht gefordert, dass die Funktionen ϕi (t) des Frames linear unabhängig sein müssen. Die Koeffizienten ai sind nun allerdings nicht mehr notwendigerweise optimal oder eindeutig. Für eine sinnvolle Analyse des Signals x(t) ist deshalb zumindest eine Beschränkung der

7.3 Hilbert-Räume

443

Koeffizientenenergie des Frames entsprechend (7.137) erforderlich. Je näher die Frame-Grenzen A und B zusammenliegen, desto besser repräsentieren die Koeffizienten ai die anteilige Energie des Signals x(t) bezüglich der Funktionen ϕi (t). Normiert man die Energie des Signals x(t) auf 1, so lautet die Bedingung für die Koeffizientenenergie: 00

◦−•

2a a2 + (2πf )2

e−a|t| sign(t) ,

a>0

◦−•

−j

e−at σ(t) ,

a>0

◦−•

1 a + j2πf

te−at σ(t) ,

a>0

◦−•

1 (a + j2πf )2

a>0

◦−•

2

e−at ,

r

4πf a2 + (2πf )2

π −(πf )2 /a e a

B

Zusammenfassung der Laplace-Transformation

Die Laplace-Transformation bildet eine Zeitfunktion y(t) in den s-Bereich mit einer komplexen Variablen s ab. Die Transformationsvorschriften sind für die einseitige Laplace-Transformation, die bei kausalen Systemen zum Einsatz kommt, wie folgt gegeben: Z∞

Y (s) = L{y(t)} =

y(t) e−st dt ,

(B.1)

0−

y(t) = L

−1

1 {Y (s)} = j2π

c+j∞ Z

Y (s) est ds .

(B.2)

c−j∞

Der Integrationsweg parallel zur imaginären Achse muss in der Konvergenzhalbebene verlaufen, d. h. auf dem Integrationsweg und rechts davon ist Y (s) analytisch. In den Tabellen B.1, B.2 und B.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der Laplace-Transformation. Weitere Korrespondenzen sind in [Zei13] zu finden. Tabelle B.1: Eigenschaften der Laplace-Transformation.

Linearität c1 · y1 (t) + c2 · y2 (t)

◦−•

c1 · Y1 (s) + c2 · Y2 (s)

Inneres Produkt Z∞

y1 (t) y2∗ (t) dt

Z∞ =

−∞

Y1 (s) Y2∗ (s) ds

−∞

Anfangswertsatz lim y(t)

=

lim y(t)

=

t→0+

lim sY (s)

s→∞

Endwertsatz t→∞

lim sY (s)

s→0+

Laplace-Transformation

666

Tabelle B.2: Rechenregeln der Laplace-Transformation.

Zeitverschiebung nach rechts, t0 > 0 y(t − t0 )

−t0 s

 Z Y (s) +

◦−•

e

◦−•

 Z et0 s Y (s) −

y(t) · eαt

◦−•

Y (s − α)

y(at)

◦−•

1 s Y a a

◦−•

sn Y (s) −

◦−•

Y (n) (s)

◦−•

1 Y (s) s

◦−•

1 j2π

0 −st

y(t) e

 dt

−t0

Zeitverschiebung nach links, t0 > 0 y(t + t0 )

t0

 y(t) e−st dt

0

Dämpfung der Zeitfunktion, α ∈ C

Skalierungssatz, a > 0

Differentiation der Zeitfunktion y (n) (t)

n−1 X

sn−1−i y (i) (0−)

i=0

Differentiation der Bildfunktion (−1)n tn y(t) Integration der Zeitfunktion Zt y(τ ) dτ 0

Multiplikation im Zeitbereich y1 (t) · y2 (t)

c+j∞ Z

Y1 (ξ) Y2 (s − ξ) dξ

c−j∞

Faltung im Zeitbereich Z∞ y1 (t)∗y2 (t) = y1 (τ ) y2 (t − τ ) dτ −∞

◦−•

Y1 (s) · Y2 (s)

Laplace-Transformation

667

Tabelle B.3: Korrespondenzen der Laplace-Transformation (dabei ist stets y(t) = 0 für t < 0).

δ(t − t0 ), t0 > 0

◦−•

1 bzw. σ(t)

◦−•

t

◦−•

1 2 t 2 1 n t n!

◦−• ◦−•

eαt

◦−•

t eαt

◦−•

1 n αt t e n! t 1 δ(t) − e− T T t

◦−• ◦−•

1 − e− T

◦−•

  t t − T 1 − e− T

◦−•

sin(ωt)

◦−•

cos(ωt)

◦−•

e−δt sin(ωt)

◦−•

e−δt cos(ωt)

◦−•

e−t0 s 1 s 1 s2 1 s3 1 n+1 s 1 s−α 1 (s − α)2 1 (s − α)n+1 Ts 1 + Ts 1 s(1 + T s) 1 s2 (1 + T s) ω s2 + ω 2 s 2 s + ω2 ω 2 s + 2δs + δ 2 + ω 2 s+δ 2 s + 2δs + δ 2 + ω 2

C

Zusammenfassung der z-Transformation

Die z-Transformation bildet eine Wertefolge yn , n ∈ Z, in den z-Bereich mit einer komplexen Variablen z ab. Die Transformationsvorschriften sind wie folgt gegeben: Y (z) = Z{yn } =

∞ X

yn z −n ,

(C.1)

n=−∞

yn = Z−1 {Y (z)} =

1 j2π

I

Y (z) z n−1 dz .

(C.2)

C

Y (z) ist nur für solche z definiert, für welche die Reihe absolut konvergiert. Das Konvergenzgebiet ist immer ein Kreisringgebiet. Der Integrationsweg C ist ein einfacher geschlossener Weg, der ganz im Innern des Konvergenzgebietes verläuft und sämtliche Singularitäten der z-Transformierten Y (z) umschließt. In den Tabellen C.1, C.2 und C.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der z-Transformation. Weitere Korrespondenzen sind in [Zei13] zu finden.

z-Transformation

670 Tabelle C.1: Eigenschaften der z-Transformation.

Linearität c1 · y1,n + c2 · y2,n

◦−•

c1 · Y1 (z) + c2 · Y2 (z)

Anfangswertsatz, yn = 0 , n < 0

Endwertsatz

y0

=

lim yn

=

n→∞

Summation

∞ X

lim Y (z)

z→∞

lim (z − 1)Y (z)

z→1

yn

=

Y (1)

∗ y1,n y2,n

=

1 j2π

n=−∞

Parseval’sche Gleichung ∞ X n=−∞

I C

Y1 (z) Y2∗



1 z∗



z −1 dz

z-Transformation

671

Tabelle C.2: Rechenregeln der z-Transformation und resultierende Konvergenzgebiete (ursprüngliches Konvergenzgebiet: r+ < |z| < r− ).

Verschiebungssatz yn−n0

◦−•

z −n0 Y (z) ,

r+ < |z| < r−

Verschiebung um n0 > 0 nach links für kausale Wertefolgen ◦−•

z n0 Y (z) −

n yn

◦−•

−z

an · yn

◦−•

Y

y−n

◦−•

Y

◦−•

1 j2π

yn+n0

nX 0 −1

yi z n0 −i ,

i=0

r+ < |z|

Lineare Gewichtung dY (z) , dz

r+ < |z| < r−

Modulation der Wertefolge z  a

,

ar+ < |z| < ar−

,

1 1 < |z| < r− r+

Zeitumkehr 1 z

Multiplikation im Zeitbereich y1,n · y2,n

I Y1 (ξ) Y2

z  ξ

ξ −1 dξ ,

C

r1+ r2+ < |z| < r1− r2− Faltung im Zeitbereich y1,n ∗ y2,n =

∞ X m=−∞

y1,m y2,n−m

◦−•

Y1 (z) · Y2 (z) , maxi {ri+ } < |z| < mini {ri− }

z-Transformation

672

Tabelle C.3: Korrespondenzen der z-Transformation mit Konvergenzgebieten.

◦−•

1,

1 für n = k 0 für n 6= k

◦−•

z −k ,

1 für n ≥ k 0 für n < k

◦−•

z −k+1 , z−1

−1 , n ≤ −1 0 , n≥0

◦−•

z , z−1

n · σn

◦−•

z , (z − 1)2

1 < |z|

n 2 · σn

◦−•

z(z + 1) , (z − 1)3

1 < |z|

an−1 · σn−1

◦−•

1 , z−a

|a| < |z|

an · σn

◦−•

z , z−a

|a| < |z|

n an · σn

◦−•

za , (z − a)2

rn sin(ωn) · σn

◦−•

z2

z r sin ω , − 2zr cos ω + r2

r, ω ∈ R+ ,

0 ≤ r < |z|

rn cos(ωn) · σn

◦−•

z2

z (z − r cos ω) , − 2zr cos ω + r2

r, ω ∈ R+ ,

0 ≤ r < |z|

an für 0 ≤ n ≤ N − 1 0 sonst

◦−•

z N − aN , z N −1 (z − a)

δn  δn−k =  σn−k =  −σ−n−1 =



alle z 

0 < |z| für k > 0 |z| < ∞ für k < 0 

1 < |z| für k ≥ 0 1 < |z| < ∞ für k < 0

|z| < 1

|a| < |z|

0 < |z|

D

Blockschaltbilder

In Abbildung D.1 sind die vier wichtigsten Elemente von Blockschaltbildern dargestellt. Dabei finden die Addition, Subtraktion und die Verstärkung sowohl im zeitkontinuierlichen als auch im zeitdiskreten Bereich Anwendung. Die Integration kommt nur im zeitkontinuierlichen und die Verzögerung nur im zeitdiskreten Fall vor.

Abbildung D.1: Elemente von Blockschaltbildern für den zeitkontinuierlichen und zeitdiskreten Bereich.

E

Beweise

E.1

Polarisationsgleichung

Die folgende Beziehung wird in Abschnitt 7.3.5 benötigt. Satz E.1: Polarisationsgleichung Für das Innenprodukt quadratisch integrierbarer Signale x(t) und y(t) gilt die Polarisationsgleichung [SV04]: hx(t), y(t)i =

1h 2 2 kx(t) + y(t)k − kx(t) − y(t)k 4 2

2

+ j kx(t) + j y(t)k − j kx(t) − j y(t)k

i

.

(E.1) •

Beweis E.2 (Polarisationsgleichung) Die verschiedenen Normen werden ausmultipliziert:



2 2 2 kx(t) + y(t)k = kx(t)k + x(t), y(t) + y(t), x(t) + ky(t)k ,



2 2 2 kx(t) − y(t)k = kx(t)k − x(t), y(t) − y(t), x(t) + ky(t)k ,



2 2 2 kx(t) + j y(t)k = kx(t)k − j x(t), y(t) + j y(t), x(t) + ky(t)k ,



2 2 2 kx(t) − j y(t)k = kx(t)k + j x(t), y(t) − j y(t), x(t) + ky(t)k .

(E.2) (E.3) (E.4) (E.5)

Die einzelnen Terme werden in die Polarisationsgleichung eingesetzt:

1



2 2 x(t), y(t) = ( kx(t)k + x(t), y(t) + y(t), x(t) + ky(t)k 4



2 2 − kx(t)k + x(t), y(t) + y(t), x(t) − ky(t)k



2 2 + j kx(t)k + x(t), y(t) − y(t), x(t) + j ky(t)k



2 2 − j kx(t)k + x(t), y(t) − y(t), x(t) − j ky(t)k )

= x(t), y(t) .

Damit ist die Polarisationsgleichung bewiesen.

(E.6)

Beweise

676

E.2

Zeitdiskrete Poisson’sche Summenformel

Die in Kapitel 8 verwendete zeitdiskrete Poisson’sche Summenformel soll im Folgenden abgeleitet werden. Dabei wird vom allgemeinen Fall der überkritischen Abtastung des Spektrums ausgegangen. Wir betrachten eine zeitdiskrete Impulsreihe yn =

∆K−1 X

l = 0, . . . , ∆K − 1 .

δn−lK ,

l=0

(E.7)

Die Funktion yn hat eine diskrete Periodendauer K und wird ∆K-mal im Beobachtungsintervall N wiederholt. Außerhalb des Beobachtungsintervalls der N Abtastschritte erfolgt ebenfalls eine periodische Wiederholung (N -Periodizität).

Abbildung E.1: Zeitdiskrete Impulsreihe.

Die zeitdiskrete Funktion ist außerdem K-periodisch, d. h. q, r ∈ Z .

yn = yn+qK = yn+rK ,

(E.8)

1. Die diskrete Fourier-Transformierte einer Impulsreihe yn mit Periode K ist Yk =

N −1 X

yn · e−j2πkn/N ,

n=0

=

N −1 ∆K−1 X X n=0

n = 0, . . . , N − 1

δn−lK · e−j2πkn/N .

(E.9) (E.10)

l=0

Es wird die folgende Variablentransformation eingeführt: n0 = n + r − l · K .

(E.11)

Aufgrund der N -Periodizität der zeitdiskreten Funktion yn erfolgt die Summation für die neue Variable n0 unverändert von 0 bis N − 1: Y (k) =

−1 ∆K−1 X NX l=0

n0 =0

0

δn0 −r · e−j2πk(n −r+l K)/N .

(E.12)

Zeitdiskrete Poisson’sche Summenformel

677

Zur Berücksichtigung der K-Periodizität von yn wird als Nächstes die Summationsvariable n0 folgendermaßen in die zwei Summationsvariablen r und q aufgeteilt: n0 = r + q · K ,

r = 0, . . . , K − 1 ,

q = 0, . . . , ∆K − 1 .

(E.13)

Daraus folgt: Yk =

∆K−1 X ∆K−1 X K−1 X r=0

l=0

=

K−1 X ∆K−1 X r=0

δqK e−j2πkqK/N e−j2πklK/N

e−j2πkl/∆K

∆K−1 X

δqK e−j2πkq/∆K

K−1 X ∆K−1 X r=0

=

l=0

K−1 X ∆K−1 X r=0

= ∆K ·

(E.15)

q=0

l=0

| =

(E.14)

q=0

{z

=1

}

e−j2πkl/∆K · e|j2πlr {z }

(E.16)

e−j2πl(k−r∆K)/∆K

(E.17)

δk−r ∆K .

(E.18)

=1

l=0 K−1 X r=0

Die diskrete Fourier-Transformierte Yk ist eine in ∆K-periodische Impulsreihe. Dies entspricht der kontinuierlichen Frequenzperiode F . 2. Die inverse diskrete Fourier-Transformation von Yk ist yn =

K−1 N −1 N −1 X 1 X 1 X Yk ej2πkn/N = ∆K δk−r ∆K · ej2πkn/N N N r=0

(E.19)

K−1 N −1 1 X X δk−r ∆K · ej2πkn/N K r=0

(E.20)

K−1 1 X j2πrn/K e . K r=0

(E.21)

k=0

=

k=0

k=0

=

3. Die zeitdiskrete Poisson’sche Summenformel ist damit ∆K−1 X l=0

δn−lK

K−1 1 X j2πnr/K e . = K r=0

(E.22)

Eine entsprechende Formulierung ist M −1 X l=0

δn−l ∆M =

∆M X−1 1 ej2πnr/∆M . ∆M r=0

(E.23)

Beweise

678

E.3

Innenprodukt von Gabor-Wavelets

Im Folgenden wird das Innenprodukt zweier zeitverschobener und skalierter GaborWavelets    2 !    41 β t−b 1 t−b β exp − ψa,b (t) = p exp j2πfx (E.24) 2 a a |a| π und 1 ψa0 ,b0 (t) = p |a0 |

  14    2 !  β β t − b0 t − b0 exp − exp j2πfx π 2 a0 a0

(E.25)

berechnet:

ψa,b (t), ψa0 ,b0 (t) =

Z∞

ψa,b (t) · ψa∗0 ,b0 (t) dt

(E.26)

−∞

Z∞ s = −∞

Z∞ =K −∞

" 2  2 #! β t−b t − b0 β + exp − π |aa0 | 2 a a0      t − b0 t−b − dt exp j2πfx a a0 exp − At2 − Bt



exp(−j2πF t) dt

(E.27) (E.28)

mit 

 1 1 ∈ R+ , + a2 a02   b b0 B := β + , a2 a02   1 1 − 0 , F := fx a a s       β b β b2 b0 b02 K := exp j2πf . exp − − + x π |aa0 | 2 a2 a02 a a0 A :=

β 2

(E.29a) (E.29b) (E.29c) (E.29d)

Der quadratische Ausdruck im Exponenten wird mit Hilfe der quadratischen Ergänzung umgeformt:    Z∞

B 2 exp(−j2πF t) dt (E.30) exp −A t − t ψa,b (t), ψa0 ,b0 (t) = K A −∞

2 !  2  Z∞  B B exp(−j2πF t) dt . = K · exp exp −A t − 4A 2A −∞

(E.31)

Innenprodukt von Gabor-Wavelets

679

Das Integral wird als Fourier-Integral interpretiert und es wird die Zeitverschiebungsregel angewendet:  2   n o

2 B B ψa,b (t), ψa0 ,b0 (t) = K · exp exp −j2πF F e−At (E.32) 4A 2A f =F r      2 π πF 2 B B exp − exp −j2πF . (E.33) = K · exp 4A 2A A A Nach Einsetzen der Abkürzungen aus (E.29) und einigen Vereinfachungen ergibt sich: r    

2 |aa0 | π 2 fx2 (a − a0 )2 β (b − b0 )2 · · exp − exp − ψa,b (t), ψa0 ,b0 (t) = a2 + a02 2 a2 + a02 β/2 a2 + a02   (a + a0 )(b − b0 ) . (E.34) · exp j2πfx · a2 + a02 Abbildung E.2 zeigt den Betrag des Innenproduktes hψ1,0 (t), ψa0 ,b0 (t)i

(E.35)

für verschiedene Skalierungen a0 und Zeitverschiebungen b0 . Dabei wurde β = 1 und √ fx = β = 1 festgelegt.

1 0,8 0,6 0,4 0,2 0 5 0 –5

–1

0

1

2

3

Abbildung E.2: Innenprodukt zweier Gabor-Wavelets.

Aus (E.34) kann geschlossen werden, dass das Innenprodukt zwar für unterschiedliche Skalierungen a und a0 bzw. unterschiedliche Zeitverschiebungen b und b0 sehr kleine Beträge annehmen kann, aber niemals null wird.

Literaturverzeichnis [A+ 96]

A UGER , F. et al.: Time-Frequency Toolbox for use with MATLAB – Tutorial. Centre National de la Recherce Scientifique (France), Rice University (USA), 1996.

[Ach85] D. A CHILLES: Die Fourier-Transformation in der Signalverarbeitung. SpringerVerlag, Heidelberg, 1985. [Boa16]

B. B OASHASH (Herausgeber): Time-frequency signal analysis and processing: A comprehensive reference. Elsevier, Amsterdam, 2. Auflage, 2016.

[BS75]

K. B RAMMER und G. S IFFLING: Stochastische Grundlagen des Kalman-BucyFilters. Oldenbourg, München, 1975.

[BS93]

G. B OLCH und M.-M. S EIDEL: Prozeßautomatisierung. B. G. Teubner, Stuttgart, 2. Auflage, 1993.

[Chr11]

K. C HRIST: Kalibrierung von Magnet-Injektoren für Benzin-Direkteinspritzsysteme mittels Körperschall. KIT Scientific Publishing, Karlsruhe, 2011.

[Coh89] L. C OHEN: Time-Frequency Distributions, A Review. Proceedings of the IEEE, 77(7):941–981, 1989. [CW92]

R. R. C OIFMAN und M. V. W ICKERHAUSER: Entropy-based algorithms for best basis selection. IEEE Transactions on Information Theory, 38(2):713–718, 1992.

[CW04]

H. C LAUSERT und G. W IESEMANN: Grundgebiete der Elektrotechnik. Oldenbourg, München, Wien, 9. Auflage, 2004.

[Dau88] I. D AUBECHIES: Orthonormal bases of compactly supported wavelets. Communications on Pure and Applied Mathematics, 41(7):909–996, 1988. [Dau92] I. D AUBECHIES: Ten lectures on wavelets. Society for Industrial and Applied Mathematics, 1992. [Dik03]

E. W. D IKICH: Verfahren zur automatischen Gesichtserkennung. Logos, Berlin, 2003.

[Doe76] G. D OETSCH: Einführung in Theorie und Anwendung der Laplace-Transformation. Birkhäuser, Basel, 1976. [FK13]

O. F ÖLLINGER und U. K ONIGORSKI: Regelungstechnik: Einführung in die Methoden und ihre Anwendung. VDE-Verlag, Berlin, 2013.

Literaturverzeichnis

682 [Fli91]

N. F LIEGE: Systemtheorie. B. G. Teubner, Stuttgart, 1991.

[Fö11]

O. F ÖLLINGER: Laplace-, Fourier- und z-Transformation. VDE-Verlag, Berlin, 10. Auflage, 2011.

[Gab46] D. G ABOR: Theory of communication. Journal of the IEE – Part III: Radio and Communication Engineering, 93:423–457, 1946. [Gal08]

R. G. G ALLAGER: Principles of Digital Communication. Cambridge University Press, Cambridge, 2008.

[GB98]

P. G ONÇALVES und R. B ARANIUK: Pseudo affine Wigner distributions: Definition and kernel formulation. IEEE Transactions on Signal Processing, 46:1505– 1516, 1998.

[Heu06] H. H EUSER: Funktionalanalysis: Theorie und Anwendung. B. G. Teubner, Wiesbaden, 4. Auflage, 2006. [Heu09] H. H EUSER: Lehrbuch der Analysis. Vieweg+Teubner, Stuttgart, 2009. [Huc92] M. H UCKER: Digitale Signalverarbeitung bei der Ultraschall-Doppler-Geschwindigkeitsmessung an Blutgefäßen. Dissertation, Institut für Prozessmeßtechnik und Prozessleittechnik, Universität Karlsruhe (TH), 1992. [HW98] H. H EUSER und H. W OLF: Algebra, Funktionalanalysis und Codierung. B. G. Teubner, Stuttgart, 1998. [Hä83]

E. H ÄNSLER: Grundlagen der Theorie statistischer Signale. Springer-Verlag, Berlin, Heidelberg, New York, 1983.

[Ise74]

R. I SERMANN: Prozeßidentifikation. Springer-Verlag, Berlin, Heidelberg, New York, 1974.

[Jur64]

E. J URY: Theory and Application of the z-Transform Method. John Wiley & Sons, New York, 1964.

[JW02]

F. J ONDRAL und A. W IESLER: Wahrscheinlichkeitsrechnung und stochastische Prozesse. B. G. Teubner, Stuttgart, 2002.

[Jä96]

K. J ÄNICH: Funktionentheorie: eine Einführung. Springer-Verlag, Berlin, Heidelberg, 6. Auflage, 1996.

[KA78]

L. W. K ANTOROWITSCH und G. P. A KILOW: Funktionalanalysis in normierten Räumen. Verlag Harri Deutsch, Frankfurt/Main, 1978.

[Kha06] A. K HAWAJA: Automatic ECG analysis using principal component analysis and wavelet transformation. Universitätsverlag Karlsruhe, 2006. [KK18]

K.-D. K AMMEYER und K. K ROSCHEL: Digitale Signalverarbeitung: Filterung und Spektralanalyse mit MATLAB-Übungen. Springer Vieweg, Wiesbaden, 9. Auflage, 2018.

Literaturverzeichnis [Kro91]

683

H. K RONMÜLLER: Digitale Signalverarbeitung. Springer-Verlag, Berlin Heidelberg, 1991.

[KSW08] U. K IENCKE, M. S CHWARZ und T. W EICKERT: Signalverarbeitung – ZeitFrequenz-Analyse und Schätzverfahren. Oldenbourg, München, 2008. [Mal89]

S. G. M ALLAT: A theory for multiresolution signal decomposition: the wavelet representation. IEEE Transactions on Pattern Recognition and Machine Intelligence, 11(7):674–693, 1989.

[Mal09]

S. G. M ALLAT: A Wavelet Tour of Signal Processing – The Sparse Way. Academic Press, Burlington, MA, 2009.

[Mar86] H. M ARKO: Methoden der Systemtheorie. Springer-Verlag, Berlin, Heidelberg, 2. Auflage, 1986. [Mer10] A. M ERTINS: Signaltheorie. Vieweg+Teubner, Wiesbaden, 2. Auflage, 2010. [Moy49] J. E. M OYAL: Quantum mechanics as a statistical theory. Mathematical Proceedings of the Cambridge Philosophical Society, 45(1):99–124, 1949. [OS75]

A. V. O PPENHEIM und R. W. S CHAFER: Digital Signal Processing. PrenticeHall, Englewood Cliffs, 1975.

[OSB04] A. V. O PPENHEIM, R. W. S CHAFER und J. R. B UCK: Zeitdiskrete Signalverarbeitung. Pearson Studium, München, 2. Auflage, 2004. [Pap77]

A. PAPOULIS: Signal Analysis. McGraw-Hill, New York, 1977.

[PS04]

J. G. P ROAKIS und M. S ALEHI: Grundlagen der Kommunikationstechnik. Pearson Studium, München, 2004.

[Pue15]

F. P UENTE L EÓN: Messtechnik. Springer-Verlag, Berlin Heidelberg, 10. Auflage, 2015.

[SS67]

R. S AUER und I. S ZABO: Mathematische Hilfsmittel des Ingenieurs, Band 1. Springer-Verlag, Heidelberg, 1967.

[Sta94]

L. S TANKOVI C´ : A method for time-frequency analysis. IEEE Transactions on Signal Processing, 42:225–229, 1994.

[SV04]

W. S TRAMPP und E. V. V OROZHTSOV: Mathematische Methoden der Signalverarbeitung. Oldenbourg, München, 2004.

[Unb98] R. U NBEHAUEN: Systemtheorie – 2. Mehrdimensionale, adaptive und nichtlineare Systeme. Oldenbourg, München, Wien, 7. Auflage, 1998. [Unb02] R. U NBEHAUEN: Systemtheorie – 1. Allgemeine Grundlagen, Signale und lineare Systeme im Zeit- und Frequenzbereich. Oldenbourg, München, Wien, 8. Auflage, 2002.

684

Literaturverzeichnis

[WR90]

J. W EXLER und S. R AZ: Discrete Gabor expansions. Signal Processing, 21:207– 220, 1990.

[Zei13]

E. Z EIDLER (Herausgeber): Springer-Taschenbuch der Mathematik – Begründet von I. N. Bronstein und K. A. Semendjaew, weitergeführt von G. Grosche, V. Ziegler und D. Ziegler. Springer Vieweg, Wiesbaden, 3. Auflage, 2013.

Index A Abstand . . . . . . . . . . . . . . . . . . . . . . siehe Distanz Abtastfrequenz . . . . . . . . . . 234, 255–272, 282 Abtasttheorem . . . . . . . . . . . 235–240, 252, 631 ~ für die Zeit-Frequenz-Verteilung 481, 482, 490, 539 Abtastung überkritische ~ . . . . . . . . . . . . . . . . . . . 485 kritische ~ . . . . . . . . . . . . . . . . . . . 454, 491 Abtastzeit . . . . . . . . . . . . . . . . . . . . 234, 282, 490 Addition ~ von Funktionen . . . . . . . . . . . . . . . . . . 54 Vektoraddition . . . . . . . . . . . . . . . . . . . . 13 Additivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 adjungierter Operator . . . . . . . . . . . . . . . . . . 35 Affine geglättete PseudoWigner-Ville-Verteilung . . . . . . . . . . 649 affine Klasse . . . . . . . . . . . . . . . . . . . . . . . . . . . 647 Affininvarianz . . . . . . . . . . . . . . . . . . . . . . . . . 515 Ähnlichkeitssatz . . . . . . . . . . . . . . . . . . 106, 170 Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . 240, 241 Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . 198, 353 zeitdiskreter ~ . . . . . . . . . . . . . . . . . . . . 353 zeitkontinuierlicher ~ . . . . . . . . . . . . . 197 α-kompakte Frame-Funktion . . . . . . . . . . 457 Ambiguitätsfunktion . . . . . . . . . . . . . . . . . . 634 Ambiguitätsfunktion . . . . . . . . . . . . . . 603–606 Kreuz-~ . . . . . . . . . . . . . . . . . . . . . . . . . . 606 Amplitude . . . . . . . . . . . . . . . . . . . . . . . . 190, 344 Amplitudenfehler . . . . . . . . . . . . . . . . . . . . . 288 Amplitudengang . . . . . . . . . . . . . 155, 190, 344 analoges Signal . . . . . . . . . . . . . . . . . . . . . . . . . 53 Analyse harmonische ~ . . . . . . . . . . . . . . . . . . . . . 86 Analyse-Wavelet . . . . . . . . . . . . . . . . . . 509, 535 Analysefenster . . . . . . . . . . . . . . . 462, 469, 480 Analysefilter . . . . . . . . . . . . . . . . . . . . . . . . . . 572 Analysefunktion . . . . . . . . . . . . . . . . . . . . . . . . 85 analytisches Signal . . . . . . . . . . . . . . . . 221, 628

diskretes ~ . . . . . . . . . . . . . . . . . . . . . . . 405 Anfangswertsatz . . . . . . . . . . . . . . . . . . . . . . 172 ~ der z-Transformation . . . . . . . . . . . 338 Approximationskoeffizienten . . . . . . . . . . 546 AR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 356 zeitkontinuierliches ~ . . . . . . . . . . . . . 201 ARMA-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . 202 zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 356 zeitkontinuierliches ~ . . . . . . . . . . . . . 201 asymptotisches Verhalten . . . . . . . . . . . . . . 543 Auflösung spektrale ~ . . . . . . . . . . . . . . . . . . . . . . . 510 Ausfallrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Ausgangsgleichung . . . . . . . . . . . . . . . 157, 319 Autokorrelation ~ für Leistungssignale . . . . . . . . . . . . . 79 Autokorrelationsfunktion . . . . . . . . . . . . . . . 72 lokale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 607 Autokovarianzfunktion . . . . . . . . . . . . . . . . . 72

B Bandbegrenzung . . . . . . . . . . . . . . . . . . . . . . 235 Bandbreite . . . . . . . . . . . . . . . . . . . 128, 265, 505 Bandpass symmetrischer ~ . . . . . . . . . . . . . . . . . . 207 Bandpass-Tiefpass-Transformation . . . . . 207 Bandpassfilter . . . . . . . . . . . . . . . . . . . . . . . . . 568 Bandpassunterraum . . . . . . . . . . . . . . . . . . . 541 Bandspektren symmetrische ~ . . . . . . . . . . . . . . . . . . 267 unsymmetrische ~ . . . . . . . . . . . . . . . . 269 Bartlett-Fenster . . . . . . . . . . . . . . . . . . . . . . . . 294 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21–27 beste ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 596 duale Riesz-~ . . . . . . . . . . . . . . . . . . . . . 446 orthogonale ~ . . . . . . . . . . . . . . . . . 81, 438 orthonormale ~ . . . . . . . . . . . . . . . 22, 437 Riesz-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 443

Index

686 Basisfunktion . . . . . . . . . . . . . . . . . . . . . 429–437 Basissystem orthonormales ~ . . . . . . . . . . . . . . . . . . 541 Basisvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . 6, 21 Beobachtungsdauer . . . . . . . . . . . . . . . . . . . 282 Beobachtungsfrequenz . . . . . . . . . . . . 273, 490 Beobachtungsmatrix . . . . . . . . . . . . . . 160, 319 Beobachtungszeit . . . . . . . . . . . . . . . . . . . . . . 272 Beschränktheit . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Bessel’sche Ungleichung . . . . . . . . . . . . . . . . 26 beste Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596 BIBO-Stabilitat . . . . . . . . . . . . . . . . . . . . 150, 314 bilineare Transformation . . . . . . . . . . . . . . . 377 biorthogonales Funktionensystem . . . . . . 85 Biorthogonalitätsbedingung . . 484, 485, 494 Biorthonormalitätsbedingung. . . . . . . . . .539 Biorthonormalität . . . . . . . . . . . . . . . . . . . . . 441 Biorthonormalitätsbedingung . . . . . . . . . . . 85 Blackman-Fenster . . . . . . . . . . . . . . . . . . . . . 295 Blockschaltbild . . . . . . . . . . . . . . . . . . . . . . . . 186 Bode-Diagramm . . . . . . . . . . . . . . . . . . . . . . . 194 Butterworth-Filter . . . . . . . . . . . . . . . . . . . . . 209

C Cauchy’sche Integralformel . . . . . . . . . 42–44 Cauchy’scher Integralsatz . . . . . . . . . . . . . . . 42 Cauchy-Kriterium . . . . . . . . . . . . . . . . . . . . . . 27 Chirp-Signal . . . . . . . . 474, 497, 593, 628, 650 Choi-Williams-Verteilung . . . . . . . . . . . . . . 635 Cohen-Klasse . . . . . . . . . . . . . . . . . . . . . 603, 633 Cosinus-Transformation. . . . . . . . . . .106–108

D Dämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 Dämpfungssatz . . . . . . . . . . . . . . . . . . . . . . . . 170 Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . 39 Datenkompression . . . . . . . . . . . . . . . . . . . . 552 Daubechies -Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 576 -Skalierungskoeffizienten . . . . . . . . . 574 Dekade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 Delta-Distribution . . . . . . siehe Dirac-Impuls Detailkoeffizienten . . . . . . . . . . . . . . . . . . . . 546 deterministisches Signal . . . . . . . . . 53, 81–85 DFT . . . . . . . . . . . . . . . . . . . . . 272–277, 284, 285 Eigenschaften der ~ . . . . . . . . . . . . . . 279

Energiesatz der ~ . . . . . . . . . . . . . . . . . 282 Faltungssatz der ~ . . . . . . . . . . . . . . . . 280 Parseval’sche Formel . . . . . . . . . . . . . 282 Differentialgleichung . . . . . . . . . . . . . 156–162 Differentialoperator . . . . . . . . . . . . . . . . . 38, 40 Differentiationsregel im Zeitbereich . . . . 170 Differenzengleichung . . . . . . . . . . . . . 317–320 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Dirac-Funktion . . . . . . . . . siehe Dirac-Impuls Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . 109 zeitdiskreter ~ . . . . . . . . . . . . . . . . . . . . 314 zeitkontinuierlicher ~ . . . . . . . . . . . . . 109 Dirac-Stoß . . . . . . . . . . . . . . siehe Dirac-Impuls diskrete Fourier-Transformation . . 272–277, 284, 285 inverse ~ . . . . . . . . . . . . . . . . . . . . . . . . . 274 diskrete Frequenzverschiebung . . . . . . . . 490 diskrete Transformationen . . . . . . . . 300–304 diskrete Wavelet-Transformation . . . . . . 540 Diskrete Wigner-Ville-Verteilung . . . . . . . 630 diskrete Zeitverschiebung . . . . . . . . . . . . . 490 diskrete Zufallsvariablen . . . . . . . . . . . . . . 248 Distanz . . . . . . . . . . . . . . . . . . . . . . . . . 12, 54, 603 ~ im zweidimensionalen Euklid’schen Raum . . . . . . . . . . . 13 ~ von Funktionen . . . . . . . . . . . . . . . . . . 54 Distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Dolph-Tschebyschow-Fenster . . . . . . . . . . 296 doppelseitige Exponentialfunktion . . . . . 114 Dreieckfenster zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 294 Dreieckimpuls . . . . . . . . . . . . . . . . . . . . . . . . . 133 Dreiecksungleichung . . . . . . . . . 12, 13, 15, 18 duale Frames . . . . . . . . . . . . . . . . . . . . . . . . . . 444 duale Riesz-Basis . . . . . . . . . . . . . . . . . . . . . . 446 duale straffe Frames . . . . . . . . . . . . . . . . . . . 452 Durchlassbereich . . . . . . . . . . . . . . . . . . . . . . 204 Durchschaltmatrix . . . . . . . . . . . . . . . . 160, 319 dyadisches Wavelet . . . . . . . . . . . . . . . . . . . . 535 Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . 149, 313

E effektive Bandbreite . . . . . . . . . . . . . . . . . . . 424 effektive Zeitdauer . . . . . . . . . . . . . . . . 422, 423 Eigenvektor . . . . . . . . . . . . . . . . . . . . . . . . . 35, 36 ~en selbstadjungierter Operatoren . 37

Index Eigenwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Einheitssprung . . . . . . . . . . . . . . . . . . . . 111, 166 Einkomponentensignal . . . . . . . . . . . . . . . . 609 Einseitenbandmodulation . . . . . . . . . . . . . 223 Elektronenspin . . . . . . . . . . . . . . . . . . . . . . . . . 67 Elementarereignis . . . . . . . . . . . . . . . . . . . . . . 59 Endwertsatz . . . . . . . . . . . . . . . . . . . . . . 172, 173 ~ der z-Transformation . . . . . . . . . . . 339 Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Energiedichte . . . . . . . 106, 254–255, 604, 612 Energiedichtespektrum . . . . . . . 106, 289, 612 Energieerhaltung . . . . . . . . . . . . . . . . . . . . . . 517 Energiesignal . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . 597, 646 Ergodizitat . . . . . . . . . . . . . . . . . . . . . . . . . . 75–78 Erwartungswert . . . . . . . . . . . . . . . . . . . . . 58, 62 Euklid’scher Raum . . . . . . . . . . . . . . . . . . . . . 14 Exponentialfunktion doppelseitige ~ . . . . . . . . . . . . . . . . . . . 114 Exponentialimpuls . . . . . . . . . . . . . . . . . . . . 113 Exponentialsignal . . . . . . . . . . . . . . . . . . . . . 114 Exponentialverteilung . . . . . . . . . . . . . . . 65–66

F Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 Laplace-Transformation . . . . . . . . . . 171 Faltungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 ~ der Wigner-Ville-Verteilung . . . . . 618 Fenster . . . . . . . . . . . . . . . . . . 135–136, 290–300 zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 292 Fensterfunktion 118, 135–136, 290–300, 419, 634 FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 Filter. . . . . . . . . . . . . . . . . . . . .204–216, 379–399 AR-~ . . . . . . . . . . . . . . . . . . . . . . . . 201, 356 ARMA-~. . . . . . . . . . . . . . . . . . . . .201, 356 frequenzselektives ~ . . . . . . . . . 379–399 MA-~ . . . . . . . . . . . . . . . . . . . . . . . . 201, 356 Filterbank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536 erweiterte Multiraten- . . . . . . . . . . . . 591 Multiraten- . . . . . . . . . . . . . . . . . . 540, 549 Multiraten-~ . . . . . . . . . . . . . . . . . 547, 555 Filterbank-Interpretation . . . . . . . . . . . . . . 499 Filterentwurf . . . . . . . . . . . . . . . . . . . . . . . . . . 379 Filtertransformation . . . . . . . . . . . . . . . . . . . 206 FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . 559, 565

687 FIR-System . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 Fourier-Reihe . . . . . . . . . . . . . . . 81, 86–94, 437 komplexe Darstellung der ~ . . . . . . . 90 Fourier-Transformation . . . . . . . . 94–108, 180 diskrete ~ . . . . . . . . . . . 272–277, 284, 285 Eigenschaften der ~ . . . . . . . . . . . 99–103 schnelle ~ . . . . . . . . . . . . . . . . . . . . . . . . 278 zeitdiskrete ~ . . . . . . . . . . . . . . . . 249–255 Frame . . . . . . . . . . . . . . . . . . . . . . . . 428, 442, 486 duale ~s . . . . . . . . . . . . . . . . . . . . . . . . . . 444 duale straffe ~s . . . . . . . . . . . . . . . . . . . 452 straffer ~ . . . . . . . . . . . . . . . . . . . . . 447, 594 Frame-Funktion α-kompakte ~ . . . . . . . . . . . . . . . . . . . . 457 kompakte ~ . . . . . . . . . . . . . . . . . . . . . . 456 Frame-Grenzen . . . . . . . . . . . . . . . 442, 445, 486 Frequenz negative ~ . . . . . . . . . . . . . . . . . . . . . . 90, 91 Frequenz-Randbedingung ~ der Wigner-Ville-Verteilung . . . . . 612 Frequenzauflosung . . . . . . . . . . . . . . . . . . . . 282 Frequenzauflösung . . . . . . . . . . . . . . . . . . . . 273 Frequenzband . . . . . . . . . . . . . . . . . . . . . . . . . 265 Frequenzfehler . . . . . . . . . . . . . . . . . . . . . . . . 288 Frequenzgang . . . . . . . . . . . . . . . . 155, 189, 316 Frequenzverschiebung . . . . . . . . . . . . 103, 606 diskrete ~ . . . . . . . . . . . . . . . . . . . . . . . . 490 Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 holomorphe ~ . . . . . . . . . 42–50, 163, 165 Funktional . . . . . . . . . . . . . . . . . . . . . . . . . . 33, 34 Funktionenaddition . . . . . . . . . . . . . . . . . . . . 54 Funktionenraum . . . . . . . . . . . . 14, 53, 54, 419 Funktionensystem biorthogonales ~ . . . . . . . . . . . . . . . . . . . 85 orthogonales ~ . . . . . . . . . . . . . . . . . 81–84 orthonormales ~ . . . . . . . . . . . . . . . . . . . 81 Funktionenunterraum . . . . . . . . . . . . 541, 542

G Gabor-Reihe . . . . . . . . . . . . . . . . . . . . . . 479, 480 Gabor-Wavelet . . . . . . . . . . . . . . . . . . . . 508, 523 Gabor-Wavelet-Transformation . . . . . . . . 524 Gauß-Impuls. . . . . . . . . . . . . . . . . . . . . .116, 524 Gauß-Verteilung . . . siehe Normalverteilung geglättete Pseudo-Wigner-Ville-Verteilung 633, 635

Index

688 Generatorfenster . . . . . . . . . . . . . . . . . . . . . . 454 geometrische Reihe . . . . . . . . . . . . . . . . . . . . 328 endliche ~ . . . . . . . . . . . . . . . . . . . . . . . . 284 Gesichtserkennung . . . . . . . . . . . . . . . . . . . . 526 Gewichtsfunktion . . . . . . . . . . . . . . . . . 151, 315 Gibbs’sches Phänomen . . . . . . . . . . . . 121–125 Glättungsfunktion . . . . . . . . . . . . . . . . . . . . . 633 Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . 63 Gram’sche Matrix. . . . . . . . . . . . . . .21, 22, 429 Gram-Schmidt’sches Orthonormalisierungsverfahren 23 Grundverstärkung . . . . . . . . . . . . . . . . . . . . . 195 Gruppenlaufzeit . . . . . . . . . 191, 345, 610, 617

H Haar-Skalierungskoeffizienten . . . . . . . . . 574 Haar-Wavelet . . . . . . . . . . . . . . . . . . . . . 530, 572 Haar-Wavelet-Transformation . . . . . . . . . 558 Hadamard-Matrix . . . . . . . . . . . . . . . . . . . . . 304 Hann-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . 295 Hard-Thresholding . . . . . . . . . . . . . . . . . . . . 589 harmonische Analyse . . . . . . . . . . . . . . . . . . . 86 Hermite’sche Matrix . . . . . . . . . . . . . . . . . . . . 22 Hermite’scher Operator . . . . . . . . . . . . . . . . . 37 Hilbert-Raum . . . . . . . . . . . . . . . . . . . 20–21, 429 Hilbert-Transformation . . . . . . . 216–224, 402 zeitdiskrete ~ . . . . . . . . . . . . . . . . . . . . . 402 Hochpass-Tiefpass-Transformation . . . . 206 holomorphe Funktion . . . 11, 42–50, 163, 165 Homogenität . . . . . . . . . . . . . . . . . . . . . . . . . . 146

I IDFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 IIR-System . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 Impulsantwort . . . . . . 150, 151, 314, 315, 573 ~ eines kausalen LTI-Systems 152, 316 ~ eines stabilen LTI-Systems . 153, 316 Impulsfunktion . . . . . . . . . siehe Dirac-Impuls Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . 372 Impulskorrelation . . . . . . . . . . . . . . . . . . . . . . 79 Impulsreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Innenprodukt . . . . . . . . . . . . . . . . 16–18, 21, 81 ~ mit Belegung . . . . . . . . . . . . . . . . . . . . 58 ~ von Energiesignalen . . . . . . . . . . . . . 56

Innenprodukt verschobener Fensterfunktionen . . . . . . . . . . . 422 Innenproduktraum . . . . . . . . . . . . . . . . . . . . . 16 Integraloperator . . . . . . . . . . . . . . . . . . . . . 38, 39 Integralsinus . . . . . . . . . . . . . . . . . . . . . . . . . . 124 Integraltransformation . . . . . . . . . . . . . . . . . . 28 Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673 numerische ~ . . . . . . . . . . . . . . . . . . . . . 375 Integrationskern . . . . . . . . . . . . . . . . . . . . . . . . 28 Interpolationsfilter . . . . . . . . . . . . . . . . . . . . . 243 Invarianz Affin-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 Skalierungs-~ . . . . . . . . . . . . . . . . 428, 505 Verschiebungs-~ . . . . . . . . . 421, 467, 515 inverse Kurzzeit-Fourier-Transformation 469 inverse z-Transformation . . . . . . . . . . . . . . 327 ~ über Partialbruchzerlegung . . . . . 332 ~ über Polynomdivision . . . . . . . . . . 331 ~ über Residuensatz . . . . . . . . . . . . . . 329 ~ über Transformationstabelle . . . . 335 ~ über geometrische Reihe . . . . . . . . 328 isolierte Singularität . . . . . . . . . . . . . . . . . . . . 48

J Jitter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 JPEG 2000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552

K Kardinalsinus . . . . . . . . . . siehe Sinc-Funktion Kaskaden-Algorithmus . . . . . . . . . . . . . . . . 580 Kausalität . . . . . . . . . . . . . . . . . . . . . . . . . 148, 313 ~ in LTI-Systemen . . . . . . . . . . . . 152, 316 Kerbfilter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 Kern reziproker ~ . . . . . . . . . . . . . . . . . . . . . . . 29 Kernfunktion . . . . . . . . . . . . . . . . . . . . . 633, 634 Koeffizientenenergie . . . . . 439, 442, 444, 486 kompakte Frame-Funktion . . . . . . . . . . . . 456 Kompaktheit . . . . . . . . . . . . . . . . . . . . . . . . . . 456 komplexe Leistung . . . . . . . . . . . . . . . . . . . . . 19 komplexe Schwingung . . . . . . . . . . . . . . . . 112 konstantes Signal . . . . . . . . . . . . . . . . . . . . . . 110 Konvergenz ~ der Laplace-Transformation . . . . 166 ~ der z-Transformation . . . . . . . . . . . 323

Index Konvergenzgebiet . . . . . . . . . . . . . . . . . . . . . 167 Konzentration . . . . . . . . . . . . . . . . . . . . . . . . . 645 Korrelation. . . . . . . .78, 80, 103, 106, 338, 603 ~ für Energiesignale . . . . . . . . . . . . . . . 79 ~ für Leistungssignale . . . . . . . . . . . . . 79 Korrelationsfunktion . . . . . . . . . . . . . . . . . . . 72 Korrelationsmatrix. . . . . . . . . . . . . . . . . . . . . .72 Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Kovarianzfunktion . . . . . . . . . . . . . . . . . . . . . 72 Kovarianzmatrix. . . . . . . . . . . . . . . . . . . . . . . .72 Kreisfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . 116 normierte ~. . . . . . . . . . . . . . . . . . . . . . .251 Kreuz-Wigner-Ville-Verteilung . . . . . . . . . 608 Kreuzambiguitätsfunktion . . . . . . . . . . . . . 606 Kreuzkorrelation . . . . . . . . . . . . . . . . . . . . . . . 58 ~ für Energiesignale . . . . . . . . . . . . . . . 79 ~ für Leistungssignale . . . . . . . . . . . . . 78 Kreuzkorrelationsfunktion . . . . . . . . . . . . . . 72 Kreuzkovarianzfunktion . . . . . . . . . . . . . . . . 72 Kreuzterm . . . . . . . . . . . . . . . . . . . . . . . . 603, 633 Kreuzterme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623 kritische Abtastung . . . . . . . . . . . . . . . . . . . . 454 kritische Verschiebung . . . . . . . . . . . . . . . . . 454 Kronecker-Delta . . . . . . . . . . . . . . . . . . . . . . . . 22 Kurzzeit-Fourier-Transformation . . . . . . 461, 463–466 diskrete ~ . . . . . . . . . . . . . . . . . . . . . . . . 490

L Laplace-Transformation . . . . . . . . . . . 162–180 Anfangswertsatz der ~ . . . . . . . . . . . 172 Differentiation . . . . . . . . . . . . . . . . . . . . 170 Eigenschaften der ~ . . . . . . . . . . 168–173 einseitige ~ . . . . . . . . . . . . . . . . . . . . . . . 165 Endwertsatz der ~ . . . . . . . . . . . . . . . . 173 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Grenzwertsätze der ~ . . . . . . . . . . . . . 171 inverse ~ . . . . . . . . . . . . . . . . . . . . . . . . . 168 Konvergenz der ~ . . . . . . . . . . . . . . . . 166 Linearitat . . . . . . . . . . . . . . . . . . . . . . . . . 169 Rucktransformation . . . . . . . . . . . . . . 173 Skalierung . . . . . . . . . . . . . . . . . . . . . . . . 170 Verschiebung im Frequenzbereich 170 Verschiebung im Zeitbereich . . . . . . 169 zweiseitige ~ . . . . . . . . . . . . . . . . . . . . . 163 Lattenzaun-Effekt . . . . . . . . . . . . . . . . . 275, 277

689 Laurent-Reihe . . . . . . . . . . . . . . . . . . . . . . . 44–48 Leakage . . . . . . . . . . . . . . . . . . . siehe Leckeffekt Leckeffekt . 118–121, 240, 275, 285, 286, 291, 293, 461, 506, 603, 633 Legendre-Polynome . . . . . . . . . . . . . . . . . . . . 81 Leistungsdichte . . . . . . . . . . . . . . 106, 254–255 Leistungsdichtespektrum . . . . . . . . . . . . . . 106 Leistungssignal . . . . . . . . . . . . . . . . . . . . . . . . . 55 lineare Gewichtung . . . . . . . . . . . . . . . . . . . . 337 lineare Unabhängigkeit . . . . . . . . . . . . . . . . . 22 lineare Vektortransformation . . . . . . . . 38, 39 linearer Operator . . . . . . . . . . . . . . . . . . . . 33–41 linearer Raum . . . . . . . . . . . . . . . . . . . . . . . 13–14 lineares zeitinvariantes System . . . 150–155, 314–316 Linearität . . . . . . . . . . . . . . . . 145, 147, 312, 335 Linienspektrum . . . . . . . . . . . . . . . . . . . . . . . . 90 lokale Autokorrelationsfunktion . . . . . . . 607 lokale Autokorrelationsfunktion des Spektrums . . . . . . . . . . . . . . . . . . 607 Lokalisierungseigenschaft der Wavelet-Transformation . . . . . 520 LTI-System . . . . . . . . . . . . . . 150–155, 314–316 kausales ~ . . . . . . . . . . . . . . . . . . . . . . . . 152 reellwertiges ~ . . . . . . . . . . . . . . . . . . . 183 stabiles ~ . . . . . . . . . . . . . . . . . . . . . . . . . 150

M MA-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 356 zeitkontinuierliches ~ . . . . . . . . . . . . . 201 Matrixoperator . . . . . . . . . . . . . . . . . . . . . . . . . 34 mehrdimensionale Verteilungsfunktion . 69 mehrdimensionale Wahrscheinlichkeitsdichte . . . . 69 Mehrgrößensystem . . . . . . . . . . . 155, 159, 316 Mehrkomponentensignal . . . . . . . . . . . . . . 610 Metrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12, 21 metrischer Raum . . . . . . . . . . . . . . . . . . . . 12–13 MIMO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155, 316 Minimalphasensystem . . . . . . . . . . . . 199, 353 zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 353 zeitkontinuierliches ~ . . . . . . . . . . . . . 197 Minimalphasigkeit . . . . . . . . . . . . . . . . . . . . 580 MISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155, 316 Mittelungseigenschaft . . . . . . . . . . . . . . . . . 543

Index

690 Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Mittelwertfilter zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 365 Mittenfrequenz . . . . . . . . . . . . . . . . . . . . . . . . 265 mittlere Frequenz . . . . . . . . . . . . . . . . . . . . . . 126 mittlere Leistung . . . . . . . . . . . . . . . . . . . . . . . 80 mittlere Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 mittlere Zeitverschiebung. . . . . . . . . . . . . .507 Modulation . . . . . . . . . . . . . . . . . . . . . . . 103, 336 Moment . . . . . . . . . . . . . . . . . 62, 70–73, 77, 616 ~ der Wigner-Ville-Verteilung . . . . . 616 ~ einer Zufallsvariablen . . . . . . . . . . . 62 ~ eines stochastischen Prozesses . . . 71 erstes ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 zentrales ~ . . . . . . . . . . . . . . . . . . 62, 71, 78 zweites ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 72 zweites zentrales ~ . . . . . . . . . . . . . . . . 72 Momentanamplitude . . . . . . . . . . . . . . . . . . 609 Momentanfrequenz . . . . . . . . . . 609, 610, 616 Momentanphase . . . . . . . . . . . . . . . . . . . . . . . 609 Moyals Formel . . . . . . . . . . . . . . . . . . . . . . . . 619 Multiplikationssatz ~ der Wigner-Ville-Verteilung . . . . . 617 Multiraten-Filterbank . . . . 540, 547, 549, 555 erweiterte . . . . . . . . . . . . . . . . . . . . . . . . 591 Multiskalenanalyse . . . . . . . . . . . . . . . . . . . . 543 Musterfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 67 Mutter-Wavelet . . . . . . . . . . . . . . . . . . . 508, 523

O

N

Parallelschaltung. . . . . . . . . . . . . . . . . .186–188 Parseval’sche Beziehung . . . . . . . . . . . 99, 517 Partialbruchzerlegung . . . . . . . . 176, 332–335 Periodizitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 Periodogramm . . . . . . . . . . . . . . . . . . . . . . . . 289 Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190, 344 Phasengang . . . . . . . . . . . . . . . . . . 155, 190, 344 Poisson’sche Summenformel . . . . . . 110, 484 diskrete ~ . . . . . . . . . . . . . . . 493, 494, 676 Pol . . . . . . . . . . . . . . . . . . . . . . . . . . siehe Polstelle Pol- und Nullstellenübertragung . . . . . . 374 Polarisationsgleichung . . . . . . . . . . . . . . . . 675 Polstelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49, 182 Polstellengüte . . . . . . . . . . . . . . . . . . . . . . . . . 184 Polynom Legendre-~ . . . . . . . . . . . . . . . . . . . . . . . . 81 trigonometrisches ~ . . . . . . . . . . . . . . . 87 Polynomdivision . . . . . . . . . . . . . . . . . . . . . . 331

negative Frequenz . . . . . . . . . . . . . . . . . . . 90, 91 Nennerpolynom . . . . . . . . . . . . . . . . . . . . . . . 182 Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 21 ~ eines Energiesignals . . . . . . . . . . . . . 56 ~ eines Leistungssignals . . . . . . . . . . . 57 ~ mit Belegung . . . . . . . . . . . . . . . . . . . . 58 Normalverteilung . . . . . . . . . . . . . . . . . . . 64–65 normierte Kreisfrequenz . . . . . . . . . . . . . . . 251 normierter Raum . . . . . . . . . . . . . . . . . . . . 15–16 Notch-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 Nullstelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Nullstellengüte . . . . . . . . . . . . . . . . . . . . . . . . 184 numerische Integration . . . . . . . . . . . . . . . . 375 Nyquist-Band . . . . . . . . . . . . . . . . 243, 244, 283 Nyquist-Frequenz . . . . . . . . . . . . . . . . . . . . . 244

Offline-Betrieb . . . . . . . . . . . . . . . . . . . . . . . . . 256 Oktave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 Online-Betrieb . . . . . . . . . . . . . . . . . . . . . . . . . 256 Operator . . . . . . . . . . . . . . . . . . . . . . . . . 11, 32–42 adjungierter ~ . . . . . . . . . . . . . . . . . . . . . 35 beschränkter ~ . . . . . . . . . . . . . . . . . . . . . 35 Differentialoperator . . . . . . . . . . . . 38, 40 Integraloperator . . . . . . . . . . . . . . . . 38, 39 linearer ~ . . . . . . . . . . . . . . . . . . . . . . 33–41 selbstadjungierter ~ . . . . . . . . . . . . . . . . 37 stetiger ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 34 unitärer ~. . . . . . . . . . . . . . . . . . . . . . . . . .37 unitärer Matrixoperator . . . . . . . . . . . . 37 Verschiebungsoperator . . . . . . . . . 41–42 Ordnung eines Systems . . . . . . . . . . . . . . . . 157 orthogonale Basis . . . . . . . . . . . . . . . . . . . . . . . 81 orthogonale Projektion . . . . . . . . . . . . . . . . . . 27 orthogonaler Raum . . . . . . . . . . . . . . . . . . . . . 25 orthogonales Funktionensystem . . . . . 81–84 Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . 18 orthonormale Basis . . . . . . . . . . . . . . . . . 22, 437 orthonormales Basissystem . . . . . . . . . . . . 541 orthonormales Funktionensystem . . . . . . . 81 Orthonormalität . . . . . . . . . . . . . . . . . . 543, 573 Orthonormalitätsbedingung . . . . . . 564, 566

P

Index Projektionstheorem . . . . . . . . . . . . . . . . 27, 441 Prozess stochastischer ~ . . . . . . . . . . . . . . . . 66–80 Pseudo-Wigner-Ville-Verteilung . . . 632, 652

Q Quadraturfilter . . . . . . . . . . . . . . . . . . . 216, 217 zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 401 Quantisierungsfehler . . . . . . . . . . . . . . . 63, 240 Quasikausalität . . . . . . . . . . . . . . . . . . . . . . . . 256

R Randeffekt . . . . . . . . . . . . . . . . . . . . . . . . 282, 403 Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11–27 Euklid’scher ~ . . . . . . . . . . . . . . . . . . . . . 14 Funktionen-~ . . . . . . . . . . . . . . . . . . 14, 53 Hilbert-~ . . . . . . . . . . . . . . . . . . . . . . . 20–21 Innenprodukt-~ . . . . . . . . . . . . . . . . 16–18 linearer ~ . . . . . . . . . . . . . . . . . . . . . . 13–14 metrischer ~. . . . . . . . . . . . . . . . . . . .12–13 normierter ~ . . . . . . . . . . . . . . . . . . . 15–16 orthogonaler ~ . . . . . . . . . . . . . . . . . . . . . 25 unitärer ~ . . . . . . . . . . . . . . . . . . . . . . 18–19 Rauschspannung . . . . . . . . . . . . . . . . . . . . . . . 67 Reassignment-Methode . . . . . . . . . . . . . . . . 649 Rechenaufwand . . . . . . . . . . . . . . . . . . . . . . . 277 Rechteckfenster zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 292 Rechteckfunktion . . . . . . . . . . . . . . . . . . . . . . 112 Rechteckregel ~ rückwärts . . . . . . . . . . . . . . . . . . . . . . 376 ~ vorwärts . . . . . . . . . . . . . . . . . . . . . . . 376 regulär K-regulär . . . . . . . . . . . . . . . . . . . . . . . . . 576 Reihenschaltung . . . . . . . . . . . . . . . . . . 186, 187 Rekonstruktion . 243–248, 260, 451, 468, 483, 493, 519, 534, 538, 622 Rekonstruktionsbedingung . . . 469, 534, 539 Rekonstruktionsfilter . . . . . . . . . . . . . . . . . . 243 Rekursion im Frequenzbereich . . . . . . . . . 581 Rekursionsbedingung . . . . . . . . . . . . . . . . . 583 Rekursionsbeziehung . . . . . . . . . . . . . . . . . . 564 Rekursionsbeziehungen . . . . . . . . . . . . . . . 577 Rekursionsmatrix . . . . . . . . . . . . . . . . . . . . . . 582 Reproduktionsbedingung . . . . . . . . . . . . . 522 reproduzierender Kern . . . . . . . . . . . . . . . . 521

691 Residuensatz . . . . . . . . . . . . . . . 48–50, 173, 329 Residuum . . . . . . . . . . . . . . . . . . . . . . . . . . . 48, 49 reziproker Kern . . . . . . . . . . . . . . . . . . . . . . . . . 29 Reziprozitätsbedingung . . . . . . . . . . . . . . . . 29 Riemann-Lebesgue’sches Lemma . 130–134 Riesz-Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443 duale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 RMS-Definition . . . . . . . . . . . . . . . . . . . . . . . . 127 Root-Mean-Square-Definition . . . . . . . . . . 127

S S-Methode . . . . . . . . . . . . . . . . . . . . . . . . 651, 652 Scharmittelwert. . . . . . . . . . . . . . . . . . . . . . . . .75 Schmidt’sches Orthonormalisierungsverfahren siehe Gram-Schmidt’sches Orthonormalisierungsverfahren, 81, 82 schnelle Fourier-Transformation . . . 277, 278 schnelle Wavelet-Transformation . . . . . . 547 Schwarz’sche Ungleichung . . . . . . . . . 17, 487 Schwellwert . . . . . . . . . . . . . . . . . . . . . . . . . . . 557 Schwingung . . . 77, 89, 91, 242, 264, 284, 285 komplexe ~ . . . . . . . . . . . . . . . . . . . . . . . 112 selbstadjungierter Operator . . . . . . . . . . . . . 37 Shannon-Wavelet . . . . . . . . . . . . . . . . . . . . . . 531 Si-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Si-Wavelet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531 σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 abgetastetes ~ . . . . . . . . . . . . . . . . . . . . 250 analoges ~ . . . . . . . . . . . . . . . . . . . . . . . . . 53 analytisches ~ . . . . . . . . . . . . . . . . . . . . 628 deterministisches ~ . . . . . . . . . 53, 81–85 Energiesignal . . . . . . . . . . . . . . . . . . . . . . 54 kausales ~ . . . . . . . . . . . . . . . . . . . . . . . . 153 konstantes ~ . . . . . . . . . . . . . . . . . . . . . . 110 Leistungssignal . . . . . . . . . . . . . . . . . . . . 55 stochastisches ~ . . . . 53, 59–80, 248–249 Testsignal . . . . . . . . . . . . . . . . . . . . 108–116 zeitdiskretes ~ . . . . . . . . . . . . . . . 233–309 zeitkontinuierliches ~ . . . . . . . . . . . . . . 53 Signalabhängige Filterung . . . . . . . . . . . . . 650 Signaleigenschaften . . . . . . . . . . . . . . . 126–134 Signalenergie . . . . . . . . . . . . . . . . . . 79, 516, 606 Signalflussplan . . . . . . . . . . . . . . . . . . . . . . . . 186

Index

692 Signalfolge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Signalfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Signalleistung . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Signaltransformation . . . . . . . . . . . . . . . . . . . . 7 Signalverarbeitung . . . . . . . . . . . . . . . . . . . . 3, 6 Signumfunktion . . . . . . . . . . . . . . . . . . . . . . . 111 SIMO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155, 316 Sinc-Funktion . . . . . . . . . . . . . . . . . . . . . 112, 438 Singularität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 isolierte ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Sinus cardinalis . . . . . . . . siehe Sinc-Funktion Sinus-Transformation . . . . . . . . . . . . . 106–108 SISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155, 316 skalare Multiplikation . . . . . . . . . . . . . . . . . . 14 Skalarmultiplikation ~ von Funktionen . . . . . . . . . . . . . . . . . . 54 Skalierung . . . . . . . . . . . . . . . . . . . . . . . . 105, 425 Skalierungsfaktor . . . . . . . . . . . . . . . . . 505, 507 dyadisch diskretisierter ~ . . . . . . . . . 531 Skalierungsfilter . . . . . . . . . . . . . . . . . . 561, 572 Skalierungsfunktion . . . . . . . . . . 542, 543, 563 Skalierungsinvarianz . . . . . . . . . . . . . . 428, 505 Skalierungskoeffizienten . . . . . . . . . . . . . . . 573 Daubechies-~ . . . . . . . . . . . . . . . . . . . . . 574 Haar-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 574 Skalierungssatz ~ der Wigner-Ville-Verteilung . . . . . 615 Skalogramm . . . . . . . . . . . . . . . . . . 510, 621, 648 Smoothed Pseudo-Wigner-Ville-Verteilung 633 Soft-Thresholding . . . . . . . . . . . . . . . . . . . . . 589 sonstiges Signal . . . . . . . . . . . . . . . . . . . . . . . . . 55 Spaltfunktion . . . . . . . . . . siehe Sinc-Funktion Spektralanalyse . . . . . . . . . . . . . . . . . . . 272–290 Spektraldichte . . . . . . . . . . . . . . . . . . . . . . . . . . 95 spektrale Auflösung . . . . . . . . . . . . . . . . . . . 510 Spektrogramm . . . . . . 466, 621, 634, 650, 652 Spektrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 Sperrbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 Sprungfunktion . . . . . . . . . . . . . . . . . . . . . . . 111 Stabilitat . . . . . . . . . . . . . . . . . 150, 183, 313, 342 ~ eines LTI-Systems . . . . . . . . . . 153, 316 Standardabweichung . . . . . . . . . . . . . . . . 62, 71 Standardnormalverteilung . . . . . . . . . . . . . . 65 Stationarität . . . . . . . . . . . . . . . . . . . . . . . . . 73–75

statische Genauigkeit . . . . . . . . . . . . . . . . . . 374 Statistik m-ter Ordnung . . . . . . . . . . . . . . . . 70 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Steuermatrix . . . . . . . . . . . . . . . . . . . . . . 160, 319 Stichprobenraum . . . . . . . . . . . . . . . . . . . . 59–60 stochastische Unabhängigkeit . . . . . . . . . . . 69 stochastischer Prozess. . . . . . . . . . . .15, 66–80 diskreter ~. . . . . . . . . . . . . . . . . . . . . . . .249 stochastisches Signal . . . . 53, 59–80, 248–249 straffer Frame . . . . . . . . . . . . . . . . . . . . . 447, 594 Strukturbild zeitdiskretes ~ . . . . . . . . . . . . . . . . . . . . 356 zeitkontinuierliches ~ . . . . . . . . . . . . . 201 Superpositionsprinzip . . . . . . . . . . . . . . . . . 146 symmetrischer Bandpass . . . . . . . . . . . . . . 207 Symmlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559 Synthese-Wavelet duales dyadisches ~ . . . . . . . . . . . . . . 535 Synthesefenster . . . . . . . . . . . . . . . . . . . 469, 480 Synthesefilter . . . . . . . . . . . . . . . . . . . . . . . . . . 572 Synthesefunktion . . . . . . . . . . . . . . . . . . . . . . . 85 System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4, 145 kausales ~ . . . . . . . . . . . . . . . . . . . 148, 313 lineares zeitinvariantes ~ . . . . 150–155, 314–316 reellwertiges ~ . . . . . . . . . . . . . . . . . . . 183 stabiles ~ . . . . . . . . . . . . . . . . . . . . 150, 313 zeitdiskretes ~ . . . . . . . . . . . . . . . 311–411 Eigenschaften . . . . . . . . . . . . . 311–317 zeitkontinuierliches ~ . . . . . . . . 145–224 Eigenschaften . . . . . . . . . . . . . 145–155 Systemfunktion . . . . . . . . . . 6, 8, 180–204, 340 Systemmatrix . . . . . . . . . . . . . . . . . . . 8, 160, 319 Systemordnung . . . . . . . . . . . . . . . . . . . . . . . 157

T Testsignal . . . . . . . . . . . . . . . . . . . . . . . . . 108–116 Tiefpass normierter ~ . . . . . . . . . . . . . . . . . . . . . . 206 Entwurf. . . . . . . . . . . . . . . . . . . . . . . .208 Tiefpass-Tiefpass-Transformation . . . . . . 206 Tiefpassunterraum . . . . . . . . . . . . . . . . . . . . 542 Toleranzschema . . . . . . . . . . . . . . . . . . . 205, 379 Totzeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149, 201 Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . 9 bilineare ~ . . . . . . . . . . . . . . . . . . . . . . . . 377

Index Trapezregel . . . . . . . . . . . . . . . . . . . . . . . 245, 377 trigonometrisches Polynom . . . . . . . . . . . . . 87 Tschebyschow-Filter . . . . . . . . . . . . . . . . . . . 212 ~ vom Typ I . . . . . . . . . . . . . . . . . . . . . . 213 ~ vom Typ II . . . . . . . . . . . . . . . . . . . . . 213

U Überabtastrate . . . . . . . . . . . . . . . . . . . . . . . . . 454 Überabtastung . . . . . . . . . . . 256, 450, 482, 491 überkritische Abtastung . . . . . . . . . . . . . . . 485 Übertragungsfunktion . . . 178, 180–204, 340 Übertragungsmatrix . . . . . . . . . . . . . . . . . . . 179 Überabtastung . . . . . . . . . . . . . . . . . . . . 239, 256 ~ bei der Rekonstruktion . . . . . . . . . 260 Überschwinger . . . . . . . . . . . . . . . . . . . . . . . . 125 unitärer Matrixoperator . . . . . . . . . . . . . . . . . 37 unitärer Operator . . . . . . . . . . . . . . . . . . . . . . . 37 unitärer Raum. . . . . . . . . . . . . . . . . . . . . . .18–19 Unschärferelation . . . . . . . . . . . . . . . . . . . . . 129 Unterabtastung . . . . . . . . . . . . . . . . . . . . . . . . 264

V Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62, 71 Vektoraddition . . . . . . . . . . . . . . . . . . . . . . . . . 13 Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Vektortransformation lineare ~ . . . . . . . . . . . . . . . . . . . . . . . 38, 39 verallgemeinerter Anfangswertsatz ~ der z-Transformation . . . . . . . . . . . 338 verallgemeinerter Fourier-Koeffizient . . . 26 Verbundwahrscheinlichkeitsdichte . . . . . . 58 Verfeinerungsmatrix . . . . . . . . . . . . . . . . . . . 583 Verschiebungsfrequenz . . . . . . . . . . . . . . . . 505 Verschiebungsinvarianz . . 421, 467–468, 515 Verschiebungsoperator . . . . . . . . . . . . . . 41–42 Verschiebungszeit . . . . . . . . . . . . . . . . . . . . . 505 Verteilungsfunktion . . . . . . . . . . . . . . . . . 61, 68 mehrdimensionale ~ . . . . . . . . . . . . . . . 69 Vollständigkeit . . . . . . . . . . . . . . . . . . . . . . . . . 20 Vollständigkeitsrelation . . . . . . . . . . . 484, 493 Vorzeichenfunktion . . . . . . . . . . . . . . . . . . . . 111

W Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . 59–60 Wahrscheinlichkeitsdichte . 58, 61–66, 68–70 mehrdimensionale ~ . . . . . . . . . . . . . . . 69

693 Wahrscheinlichkeitsraum . . . . . . . . . . . . 60, 66 Wahrscheinlichkeitsverteilung . . . . . . . 60–66 Walsh-Funktionen . . . . . . . . . . . . . . . . . . . . . 300 Walsh-Leistungsspektrum . . . . . . . . . . . . . 302 Walsh-Transformation . . . . . . . . . . . . . . . . . 300 Wavelet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541 Analyse-~. . . . . . . . . . . . . . . . . . . .509, 535 dyadisches ~ . . . . . . . . . . . . . . . . . . . . . 535 Gabor-~ . . . . . . . . . . . . . . . . . . . . . 508, 523 Haar-~ . . . . . . . . . . . . . . . . . . . . . . . 530, 572 Mutter-~ . . . . . . . . . . . . . . . . . . . . . 508, 523 semidiskretes dyadisches ~ . . . . . . . 531 Shannon-~ . . . . . . . . . . . . . . . . . . . . . . . 531 Synthese-~ . . . . . . . . . . . . . . . . . . . . . . . 535 wavelet crime . . . . . . . . . . . . . . . . . . . . . . . . . 559 Wavelet-Gleichung . . . . . . . . . . . . . . . . . . . . 567 Wavelet-Paket-Baum . . . . . . . . . . . . . . . . . . 592 Wavelet-Paket-Transformation . . . . . . . . . 590 Wavelet-Reihe dyadische ~ . . . . . . . . . . . . . . . . . . . . . . 537 Wavelet-Transformation . . . . . . . . . . . 505, 509 diskrete ~ . . . . . . . . . . . . . . . . . . . . . . . . 540 Gabor-~ . . . . . . . . . . . . . . . . . . . . . . . . . . 524 Haar-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 558 inverse diskrete ~ . . . . . . . . . . . . . . . . . 548 schnelle ~ . . . . . . . . . . . . . . . . . . . . . . . . 545 Wexler-Raz-Beziehung . . . . . . . . . . . . . . . . . 485 zeitdiskrete ~ . . . . . . . . . . . . . . . . . . . . . 494 Wigner-Kern . . . . . . . . . . . . . . . . . . . . . . . . . . 611 Wigner-Verteilung . . . . . . . . . . . . . . . . . . . . . 607 Wigner-Ville-Verteilung . . . . . . . . . . . 603, 607 Affine geglättete Pseudo- . . . . . . . . . 649 diskrete ~ . . . . . . . . . . . . . . . . . . . . . . . . 630 geglättete Pseudo- . . . . . . . . . . . . . . . . 635 Kreuz-~ . . . . . . . . . . . . . . . . . . . . . . . . . . 608 Pseudo- . . . . . . . . . . . . . . . . . . . . . . . . . . 632 Smoothed Pseudo- . . . . . . . . . . . . . . . 633

Z z-Transformation. . . . . . . . . . . . . . . . . .320–339 Anfangswertsatz der ~ . . . . . . . . . . . 338 Eigenschaften der ~ . . . . . . . . . . . . . . 335 Endwertsatz der ~ . . . . . . . . . . . . . . . . 339 Existenz der ~ . . . . . . . . . . . . . . . . . . . . 323 inverse ~ . . . . . . . . . . . . . . . . . . . . . . . . . 327 Konvergenz der ~ . . . . . . . . . . . . . . . . 323

694 Zählerpolynom . . . . . . . . . . . . . . . . . . . . . . . . 182 Zeit-Frequenz-Ebene . . . . . . . . . . . . . . . . . . 454 Zeit-Frequenz-Verteilung . . . . . . . . . . . . . . 483 Zeit-Randbedingung ~ der Wigner-Ville-Verteilung . . . . . 612 Zeitbegrenzung . . . . . . . . . . . . . . . . . . . . . . . 291 Zeitdauer . . . . . . . . . . . . . . . . . . . . . . . . . 127, 505 Zeitdauer-Bandbreite-Produkt . . . . 126–129 zeitdiskrete Fourier-Transformation 249–255 zeitdiskretes Signal . . . . . . . . . . . . . . . 233–309 zeitdiskretes System . . . . . . . . . . . . . . 311–317 Zeitdiskretisierung . . . . . . . . . . . . . 9, 233–234 Zeitinvarianz . . . . . . . . . . . . . . . . . . . . . 147, 312 zeitkontinuierliches Signal . . . . . . . . . . . . . . 53 zeitkontinuierliches System . . . 145–155, 224

Index Zeitkontinuum . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Zeitmittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Zeitumkehr . . . . . . . . . . . . . . . . . . . . . . . . . . . 336 Zeitvarianz . . . . . . . . . . . . . . . . . . . . . . . 147, 312 Zeitverschiebung . . . . . . . . 103, 169, 336, 606 diskrete ~ . . . . . . . . . . . . . . . . . . . . . . . . 490 zentrales Moment . . . . . . . . . . . . . . . . . . . 62, 71 Zero-Padding . . . . . . . . . . . . . . . . 282, 288, 492 Zufallsexperiment . . . . . . . . . . . . . . . . . . . . . . 59 Zufallsvariable . . . . . . . . . . . . 14, 15, 58, 60–66 diskrete ~ . . . . . . . . . . . . . . . . . . . . . . . . 249 Zulässigkeitsbedingung . . . . . . 508, 511, 517 Zustandsgleichung . . . . . . . . . . . . . . . . 157, 319 Zustandsgröße . . . . . . . . . . . . . . . . . . . . . . . . 157 Zustandsraum . . . . . . . . . . . . . . . . 157–162, 318 Zweiskalenrelation . . . . . . . . . . . . . . . . . . . . 543