Messtechnik: Grundlagen, Methoden und Anwendungen [11. Aufl. 2019] 978-3-662-59766-8, 978-3-662-59767-5

Dieses Lehrbuch bietet eine systematische Einführung in die moderne Messtechnik. Dabei werden die methodischen Gemeinsam

1,042 167 8MB

German Pages XVI, 481 [488] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Messtechnik: Grundlagen, Methoden und Anwendungen [11. Aufl. 2019]
 978-3-662-59766-8, 978-3-662-59767-5

Table of contents :
Front Matter ....Pages I-XVI
Messsysteme und Messfehler (Fernando Puente León)....Pages 1-24
Kurvenanpassung (Fernando Puente León)....Pages 25-52
Stationäres Verhalten von Messsystemen (Fernando Puente León)....Pages 53-104
Zufällige Messfehler (Fernando Puente León)....Pages 105-177
Dynamisches Verhalten von Messsystemen (Fernando Puente León)....Pages 179-235
Stochastische Signale (Fernando Puente León)....Pages 237-311
Erfassung analoger Signale (Fernando Puente León)....Pages 313-373
Frequenz- und Drehzahlmessung (Fernando Puente León)....Pages 375-415
Parameterschätzung (Fernando Puente León)....Pages 417-459
Back Matter ....Pages 461-481

Citation preview

Fernando Puente León

Messtechnik Grundlagen, Methoden und Anwendungen 11. Auflage

Messtechnik

Fernando Puente León

Messtechnik Grundlagen, Methoden und Anwendungen 11. Auflage

Fernando Puente León Karlsruher Institut für Technologie Karlsruhe, Deutschland

ISBN 978-3-662-59766-8 ISBN 978-3-662-59767-5  (eBook) https://doi.org/10.1007/978-3-662-59767-5 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Vieweg © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 1923, 1932, 1995, 2001, 2005, 2008, 2011, 2012, 2015, 2017, 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Verantwortlich im Verlag: Michael Kottusch Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Für Fer, Luis, David, Anna und Barbara

Vorwort Das vorliegende Lehrbuch wendet sich an Studierende der Ingenieurwissenschaften (insbesondere der Elektrotechnik, Informationstechnik, Mechatronik und des Maschinenbaus) und der Informatik sowie an Ingenieure in der Praxis, die einen Einblick in das spannende Gebiet der Messtechnik gewinnen wollen. Es fußt auf Vorlesungen des Autors am Karlsruher Institut für Technologie (KIT). Das Buch ist so konzipiert, dass sich der Leser den Stoff selbst aneignen und weiterführende Literatur erschließen kann. Zahlreiche Beispiele illustrieren die dargestellten Methoden und tragen somit zum besseren Verständnis und zur Vertiefung der Inhalte bei. Die vorliegende Auflage ist dem bewährten Konzept dieses Lehrbuchs treu geblieben. Seit der zehnten Auflage wurden dennoch einige Ergänzungen und Aktualisierungen vorgenommen sowie zahlreiche Passagen überarbeitet und verständlicher gestaltet. Als wesentliche Neuerung ist das Kapitel 9 hinzugekommen, das sich dem messtechnisch hochrelevanten Thema der Parameterschätzung widmet. In einer historischen Entscheidung haben die Mitgliedsstaaten des Internationalen Büros für Maß und Gewicht Ende 2018 beschlossen, das Internationale Einheitensystem grundlegend zu überarbeiten, was eine Neudefinition von vier der sieben Basiseinheiten – das Kilogramm, das Ampere, das Kelvin und das Mol – zur Folge gehabt hat. Die Entscheidung wurde beim 26. Treffen der Generalkonferenz für Maß und Gewicht getroffen und gilt seit dem 20. Mai 2019. Dieser fundamentalen Revision des Internationalen Einheitensystems wird im ersten Kapitel Rechnung getragen. Eine umfassende Aktualisierung dieses Buchs wäre ohne die Unterstützung zahlreicher Personen nicht möglich gewesen. Besonderer Dank gilt Herrn M.Sc. Maximilian Schambach, der das Manuskript sorgfältig Korrektur gelesen hat und dabei viele inhaltliche Verbesserungsvorschläge beigesteuert hat. Herzlich gedankt sei ebenfalls den Lesern und Hörern, die auf Fehler hingewiesen und wertvolle Anregungen zur Aufbereitung des Stoffes geliefert haben. Ferner sei dem Springer-Verlag für die gute Zusammenarbeit gedankt. Nicht zuletzt schulde ich meiner Familie ganz besonderen Dank. Ohne ihre große Unterstützung wäre es nicht möglich gewesen, dieses Buch rechtzeitig fertigzustellen. Karlsruhe, im Sommer 2019

Fernando Puente León

Vorwort zur 8. Auflage Dieses Lehrbuch richtet sich an Studenten der Ingenieurwissenschaften (insbesondere der Elektrotechnik, Informationstechnik, Mechatronik und des Maschinenbaus) sowie der Informatik. Es behandelt die systemtheoretischen Grundlagen der Messtechnik.

VIII

Vorwort

Dabei werden die allen Messsystemen gemeinsamen Verfahren in den Vordergrund gestellt. Der Inhalt des Buches umfasst die Beschreibung des physikalischen Verhaltens von Messsystemen durch ein mathematisches Modell, die Verbesserung der statischen sowie der dynamischen Eigenschaften von Messsystemen, die Messung zufälliger Größen und stochastischer Signale, die rechnergestützte Messdatenerfassung und -verarbeitung sowie die Erfassung frequenzanaloger Signale. Vorausgesetzt werden Kenntnisse der gebräuchlichen Integraltransformationen und der Grundlagen der Wahrscheinlichkeitsrechnung. Bei den Herleitungen von Formeln sind alle notwendigen Zwischenschritte angegeben, damit der Leser sich den Stoff auch im Selbststudium aneignen kann. Bei der Ausarbeitung dieses Buches fand ich das Buch Messtechnik (Springer-Verlag, 7. Auflage, 2008) meines verehrten Vorgängers, Herrn Professor Uwe Kiencke, vor, das die Messtechnik in der oben geschilderten, systematischen Weise hervorragend aufbereitet. Ich habe es deshalb als Grundlage herangezogen und die Struktur des Buches weitgehend beibehalten, weil sie sich im Lehrbetrieb über viele Jahre bewährt hat. Inhaltlich wurden im Kapitel Messsysteme und Messfehler Messskalen und damit auch die Messung qualitativer Größen eingeführt; ferner wurden die Abschnitte über metrische Größen und Messsysteme deutlich erweitert. Das Kapitel Zufällige Messfehler enthält zahlreiche inhaltliche Erweiterungen und neue Beispiele. Exemplarisch seien das Bayes-Theorem, die Behandlung höherer Momente von Verteilungen sowie multivariater Verteilungen und die Eigenschaften von Schätzern genannt. Im Kapitel Dynamisches Verhalten von Messsystemen wurde die Gliederung aus didaktischen Überlegungen überarbeitet und es wurden neue Erkenntnisse aus dem Gebiet der Systemoptimierung berücksichtigt. In nahezu jedem Kapitel wurden neue Abbildungen und praktische Beispiele aufgenommen, die ein tieferes Verständnis der behandelten Verfahren und ihrer Einsatzgebiete vermitteln. Ferner wurde das gesamte Buch inhaltlich und redaktionell überarbeitet und praktisch jede Abbildung neu erstellt, um eine bessere Verständlichkeit sowie eine konsistentere Verwendung der mathematischen Symbole zu erzielen. Bei dieser Gelegenheit wurde die Darstellung von Vektoren und Matrizen an die international übliche Notation angepasst, stochastische Größen wurden zu ihrer leichteren Erkennung konsistent in Schreibmaschinenschrift gesetzt. Darüber hinaus konnten durch Hinweise von Lesern und Hörern Fehler korrigiert und Erläuterungen verbessert werden. Besonderer Dank gilt Herrn Dipl.-Ing. Marco Kruse für die Erstellung von Matlab-Übungen, für wertvolle Hinweise und Diskussionen sowie für die zweimalige akribische Korrektur des Manuskripts. Von seinem

Vorwort

IX

fachkundigen Einsatz und seinem didaktischen Geschick hat dieses Buch außerordentlich stark profitiert. Schließlich sei dem Springer-Verlag für die ausgezeichnete Zusammenarbeit gedankt. Karlsruhe, im Sommer 2011

Fernando Puente León

Inhaltsverzeichnis 1

Messsysteme und Messfehler

1

1.1 Messskalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

¨ 1.2 Metrische Großen . . . . . . . . . . . . . . . . . . 1.2.1 Eine kurze Geschichte der Maßeinheiten . 1.2.2 Anpassung der Definitionen der Einheiten 1.2.3 Internationales Einheitensystem . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

5 6 8 9

1.3 Messsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Struktur von Messsystemen . . . . . . . . . . . . . . 1.3.2 Beschreibung von Messsystemen im Zustandsraum 1.3.3 Physikalische Messkennlinie . . . . . . . . . . . . . . ¨ . . . . . . . . . . 1.3.4 Messsignale als Informationstrager

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

11 11 13 15 15

1.4 Messfehler . . . . . . . . . . . . . . . . . 1.4.1 Absoluter und relativer Fehler . . 1.4.2 Fehlerursachen . . . . . . . . . . 1.4.3 Spezifizierte Normalbedingungen

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

17 18 19 21

1.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

2

25

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Kurvenanpassung

2.1 Approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Approximation mit orthonormalen Funktionensystemen ¨ 2.1.2 Least-Squares-Schatzer . . . . . . . . . . . . . . . . . . 2.1.3 Regressionsanalyse . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

28 28 33 34

2.2 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Polynominterpolation . . . . . . . . . . . . . . . 2.2.2 Interpolation durch Lagrange-Polynome . . . . 2.2.3 Interpolation durch Newton-Polynome . . . . . 2.2.4 Spline-Interpolation . . . . . . . . . . . . . . . . 2.2.5 Systemtheoretische Deutung der Interpolation .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

36 36 37 39 42 47

2.3 Kennfeldinterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

2.4 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

3

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

¨ Stationares Verhalten von Messsystemen

¨ Messkennlinie und deren Fehler . 3.1 Stationare 3.1.1 Ideale und reale Messkennlinie . . . 3.1.2 Abgleich der Messkennlinie . . . . . 3.1.3 Kennlinienfehler bei realer Kennlinie ¨ 3.1.4 Abschatzung des Kennlinienfehlers .

53

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

55 55 57 59 61

XII

Inhaltsverzeichnis

3.2 Kennlinienfehler unter Normalbedingungen . . . . . . 3.2.1 Herabsetzen des Messbereichs . . . . . . . . 3.2.2 Reihenschaltung zweier nichtlinearer Glieder 3.2.3 Wahl des gunstigsten Messbereichs . . . . . ¨ 3.2.4 Differenzmethode . . . . . . . . . . . . . . . . 3.2.5 Gegenkopplung . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen ¨ oßen ¨ 3.3.1 Superponierende Storgr . . . . . . . . . . . . . . . . ¨ oßen ¨ 3.3.2 Unterdruckung superponierender Storgr mit der ¨ Differenzmethode . . . . . . . . . . . . . . . . . . . . . . . ¨ oßen ¨ . . . . . . . . . . . . . . . . . . 3.3.3 Deformierende Storgr ¨ oßen ¨ 3.3.4 Deformierende Storgr bei Gegenkopplung . . . . . . ¨ oßen ¨ 3.3.5 Superponierende Storgr bei Gegenkopplung . . . . . ¨ . . . . . . . . 3.3.6 Kompensation systematischer Storeinfl usse ¨ 3.3.7 Abschirmung . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ oßen ¨ 3.3.8 Superponierende Storgr in Messketten . . . . . . . . ¨ 3.3.9 Zerhackerverstarker . . . . . . . . . . . . . . . . . . . . . .

. . . . . .

65 65 67 71 76 82

. . . . . . . .

86 86

. . . . . . . .

88 89 92 95 95 96 96 98

. . . . . .

. . . . . .

. . . . . . . .

. . . . . .

. . . . . . . .

. . . . . . . .

3.4 Ruckwirkung des Messsystems . . . . . . . . . . . . . . . . . . . . . . . 101 ¨ 3.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4

¨ Zufallige Messfehler

105

4.1 Grundlagen der Wahrscheinlichkeitstheorie . . . . . . . 4.1.1 Wahrscheinlichkeitsdichte . . . . . . . . . . . . . ¨ 4.1.2 Wahrscheinlichkeitsdichten abgebildeter Großen 4.1.3 Momente der Statistik 1. Ordnung . . . . . . . . . 4.1.4 Momente der Statistik 2. Ordnung . . . . . . . . . 4.1.5 Korrelationskoeffizient . . . . . . . . . . . . . . . 4.1.6 Charakteristische Funktion . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

109 112 117 118 121 124 127

4.2 Stichproben . . . . . . . . . . . . . . . . . . . ¨ 4.2.1 Haufigkeitsverteilung und Histogramm ¨ 4.2.2 Schatzung von Mittelwert und Varianz 4.2.3 Gesetz der großen Zahlen . . . . . . . ¨ 4.2.4 Mittelung zur Storungsunterdr uckung . ¨

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

128 128 129 135 137

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

4.3 Wichtige Wahrscheinlichkeitsverteilungen . . . . . . . . . . . . . . . . . 139 4.3.1 Diskrete Wahrscheinlichkeitsverteilungen . . . . . . . . . . . . . 139 4.3.2 Stetige Wahrscheinlichkeitsverteilungen . . . . . . . . . . . . . . 141 4.4 Statistische Testverfahren . . . . . . . . . . . . . . . . 4.4.1 Konfidenzintervall und statistische Sicherheit 4.4.2 Hypothesen und statistische Tests . . . . . . 4.4.3 Signifikanztest fur ¨ den Stichprobenmittelwert

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

150 151 156 158

Inhaltsverzeichnis

4.4.4

XIII

χ2 -Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . . . . 159

¨ 4.5 Qualitatssicherung . . . . . . . . . . . . . . . . 4.5.1 Beurteilung von Fertigungsprozessen . 4.5.2 Bestimmung der Ausfallrate . . . . . . 4.5.3 Statistische Prozessuberwachung . . . ¨

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

163 163 165 170

4.6 Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 4.7 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 5

Dynamisches Verhalten von Messsystemen

179

5.1 Beschreibung von Messsystemen . . . . . . . . . . . . 5.1.1 Systemeigenschaften . . . . . . . . . . . . . . . 5.1.2 Lineare, zeitinvariante Systeme (LTI-Systeme) . ¨ . . . . . . . . . . . . . . . . . . . . . . 5.1.3 Stabilitat

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

181 181 182 184

5.2 Empirische Analyse von Messsystemen . . 5.2.1 Kennwerte der Sprungantwort . . . . 5.2.2 Nichtlineares dynamisches Verhalten 5.2.3 Bestimmung des Frequenzganges .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

185 186 187 188

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

5.3 Verbesserung des dynamischen Systemverhaltens . . . . . . . . . . . . 190 5.3.1 Optimierung der Systemparameter . . . . . . . . . . . . . . . . . 192 ¨ 5.3.2 Anderung der Systemstruktur . . . . . . . . . . . . . . . . . . . . 193 5.4 Parameteroptimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1 Kriterium verschwindende Momente der Impulsantwort“ . . . ” 5.4.2 Kriterium konstanter Amplitudengang fur ¨ kleine Frequenzen“ ” 5.4.3 Kriterium konstanter Realteil des Frequenzganges“ . . . . . ” 5.4.4 ITAE-Kriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.5 Kriterium quadratisches Fehlerintegral“ . . . . . . . . . . . . ” ¨ 5.5 Strukturanderung zur Optimierung des Zeitverhaltens . . . . . . . . . 5.5.1 Kompensation des Zeitverhaltens . . . . . . . . . . . . . . . . 5.5.2 Zeitverhalten bei Gegenkopplung . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

193 196 200 205 210 216

. . 222 . . 223 . . 227

5.6 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 6

Stochastische Signale

6.1 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Einfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 6.1.2 Wahrscheinlichkeitsverteilung und Wahrscheinlichkeitsdichte 6.1.3 Schar- und Zeitmittelwerte . . . . . . . . . . . . . . . . . . . . 6.1.4 Momente der Statistik 1. Ordnung . . . . . . . . . . . . . . . . 6.1.5 Momente der Statistik 2. Ordnung . . . . . . . . . . . . . . . . ¨ Prozesse . . . . . . . . . . . . . . . . . . . . . . . 6.1.6 Stationare 6.1.7 Ergodische Prozesse . . . . . . . . . . . . . . . . . . . . . . .

237

. . . . . . . .

. . . . . . . .

241 241 243 246 247 247 249 251

XIV

Inhaltsverzeichnis

6.2 Korrelationsfunktionen . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2 Korrelation von Leistungssignalen . . . . . . . . . . . . . 6.2.3 Korrelation von Energiesignalen . . . . . . . . . . . . . . 6.2.4 Eigenschaften von Auto- und Kreuzkorrelationsfunktion

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

256 256 259 261 263

6.3 Korrelationsmesstechnik . . . . . . . . . . . . . . . . . . . . 6.3.1 Messung von Korrelationsfunktionen . . . . . . . . . ¨ 6.3.2 Ahnlichkeit von Signalen, Laufzeitmessung . . . . . 6.3.3 Closed-loop-Korrelation . . . . . . . . . . . . . . . . ¨ 6.3.4 Polaritatskorrelation . . . . . . . . . . . . . . . . . . . ¨ 6.3.5 Ahnlichkeit von Spektren, Dopplerfrequenzmessung ¨ 6.3.6 Selbstahnlichkeit . . . . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

265 265 266 271 273 274 277

6.4 Spektrale Darstellung stochastischer Signale . . . . . . . . . . . 6.4.1 Leistungsdichtespektrum . . . . . . . . . . . . . . . . . . 6.4.2 Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ ¨ ¨ . . . . . . . . . . . . 6.4.3 Uberlagerung zufalliger Storsignale ¨ 6.4.4 Ubertragung stochastischer Signale durch LTI-Systeme

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

278 278 282 287 288

6.5 Systemidentifikation . . . . . . . . . . . . . . . . . . . . . . . ¨ 6.5.1 Schatzung des Leistungsdichtespektrums . . . . . . ¨ 6.5.2 Systemidentifikation bei geschatzter Leistungsdichte 6.5.3 Dynamische Systemidentifikation . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

292 293 294 296

6.6 Signaldetektion . . . . . . . . . . . . . . . . . . 6.6.1 Signalmodell . . . . . . . . . . . . . . . 6.6.2 Matched-Filter . . . . . . . . . . . . . . 6.6.3 Matched-Filter bei farbigem Rauschen

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

297 298 298 299

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

6.7 Wiener-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7.1 Signalmodell . . . . . . . . . . . . . . . . . . . . . . 6.7.2 Herleitung des Wiener-Filters . . . . . . . . . . . . 6.7.3 Wiener-Filter bei linearer Verzerrung und additivem Rauschen . . . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . .

. . . . . . . . 302 . . . . . . . . 302 . . . . . . . . 304 . . . . . . . . 305

6.8 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 7

Erfassung analoger Signale

7.1 Abtastung . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 Abtasttheorem . . . . . . . . . . . . . . . . . 7.1.2 Banduberlappungsfehler (Aliasing) . . . . . ¨ 7.1.3 Anti-Aliasing-Filter . . . . . . . . . . . . . . . 7.1.4 Mittelwertbildung bei endlicher Abtastdauer 7.1.5 Zeitliche Abtastfehler . . . . . . . . . . . . .

313

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

316 316 318 321 324 326

7.2 Quantisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331

Inhaltsverzeichnis

7.2.1 7.2.2 7.2.3 7.2.4 7.2.5 7.2.6 7.2.7 7.2.8

XV

Wahrscheinlichkeitsdichte der Signalwerte . . . . . . Amplitudendichte der Fourier-Reihe . . . . . . . . . . Quantisierungstheorem . . . . . . . . . . . . . . . . . Wahrscheinlichkeitsdichte des Quantisierungsfehlers ¨ Signal-Rausch-Verhaltnis infolge der Quantisierung . Optimale Quantisierung . . . . . . . . . . . . . . . . Minimierung des relativen Quantisierungsfehlers . . Dithering . . . . . . . . . . . . . . . . . . . . . . . . .

7.3 Analog-Digital-Umsetzer . . . . . . . . . . . . . . . . 7.3.1 A/D-Nachlaufumsetzer . . . . . . . . . . . . . 7.3.2 A/D-Umsetzer mit sukzessiver Approximation 7.3.3 Integrierende A/D-Umsetzer . . . . . . . . . . 7.3.4 Delta-Sigma-Umsetzer . . . . . . . . . . . . . 7.3.5 Ratiometrische Messung . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

334 335 337 342 345 345 346 349

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

353 353 354 356 358 366

7.4 Digital-Analog-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 7.4.1 Parallele D/A-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . 367 7.4.2 Serielle D/A-Umsetzer . . . . . . . . . . . . . . . . . . . . . . . . 369 7.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 8

Frequenz- und Drehzahlmessung

375

8.1 Allgemeiner Frequenzbegriff . . . . . . . . . . . . . . . . . . . . . . . . . 378 8.2 Digitale Drehzahlmessung . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Periodendauermessung . . . . . . . . . . . . . . . . . . . . 8.2.2 Frequenzmessung . . . . . . . . . . . . . . . . . . . . . . . ¨ . . . 8.2.3 Maximaler Quantisierungsfehler fur ¨ einen Zahlvorgang 8.2.4 Mittelwertbildung bei der Drehzahlmessung . . . . . . . . . 8.2.5 Abtastung bei der Drehzahlmessung . . . . . . . . . . . . . 8.2.6 Quantisierung bei fortlaufenden Periodendauermessungen 8.2.7 Leistungsdichte des Quantisierungsfehlers . . . . . . . . . . 8.2.8 Kompensation mechanischer Fehler des Sensorrades . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

384 385 386 387 390 392 393 397 399

8.3 Kontinuierliche Frequenzmessung . . . . . . . . . . . . . . . . . . . . . . 405 8.3.1 Phasenregelkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 8.3.2 Frequenzregelkreis . . . . . . . . . . . . . . . . . . . . . . . . . . 409 8.4 Positions- und Richtungserkennung . . . . . . . . . . . . . . . . . . . . . 411 8.4.1 Drehrichtungserkennung . . . . . . . . . . . . . . . . . . . . . . . 411 8.4.2 Positionsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . 413 8.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415 9

¨ Parameterschatzung

417

9.1 Lineares Signalmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420

XVI

Inhaltsverzeichnis

¨ 9.2 Least-Squares-Schatzer . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 ¨ 9.2.1 Parameterschatzung fur ¨ ein lineares Signalmodell . . . . . . . . 424 9.2.2 Filterbank-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . 430 ¨ 9.3 Gauß-Markov-Schatzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 ¨ 9.4 Rekursiver Least-Squares-Schatzer . . . . . . . . . . . . . . . . . . . . . 440 ¨ 9.4.1 Ableitung aus dem Least-Squares-Schatzer . . . . . . . . . . . . 441 ¨ 9.4.2 Rekursiver Least-Squares-Schatzer fur ¨ zeitvariante Signale . . . 447 ¨ 9.5 Bayes-Schatzung . . . . . . . . . . . . . 9.5.1 Wahrscheinlichkeit . . . . . . . . ¨ 9.5.2 Bayes’sche Parameterschatzung ¨ 9.5.3 Maximum-Likelihood-Schatzer . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

448 448 450 453

9.6 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459 A

Symbole und Tabellen

A.1 Symbolverzeichnis . . . . . . A.1.1 Konventionen . . . . A.1.2 Operatoren . . . . . . A.1.3 Lateinische Symbole A.1.4 Griechische Symbole

461

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

463 463 463 463 467

A.2 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468 Index

471

Kapitel 1 Messsysteme und Messfehler

1

1

1

Messsysteme und Messfehler

1.1 Messskalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

¨ 1.2 Metrische Großen . . . . . . . . . . . . . . . . . . 1.2.1 Eine kurze Geschichte der Maßeinheiten . 1.2.2 Anpassung der Definitionen der Einheiten 1.2.3 Internationales Einheitensystem . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

5 6 8 9

1.3 Messsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Struktur von Messsystemen . . . . . . . . . . . . . . 1.3.2 Beschreibung von Messsystemen im Zustandsraum 1.3.3 Physikalische Messkennlinie . . . . . . . . . . . . . . ¨ . . . . . . . . . . 1.3.4 Messsignale als Informationstrager

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

11 11 13 15 15

1.4 Messfehler . . . . . . . . . . . . . . . . . 1.4.1 Absoluter und relativer Fehler . . 1.4.2 Fehlerursachen . . . . . . . . . . 1.4.3 Spezifizierte Normalbedingungen

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

17 18 19 21

1.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

1 Messsysteme und Messfehler Die Messtechnik ist heutzutage für nahezu alle Bereiche der Naturwissenschaften und der Technik von Bedeutung. Sie ermöglicht es dem Menschen, seinen Wahrnehmungshorizont über seine Sinne hinaus zu erweitern und liefert damit Erkenntnisse über die Natur. Ferner führt sie zu einem Wachstum und zu einer Qualitätserhöhung in der Produktion und zu einer Steigerung der Zuverlässigkeit. Schließlich erlaubt sie eine Überwachung technischer Prozesse, um Anlagen sicher zu betreiben und Mensch und Umwelt vor Schäden zu bewahren. Aus diesen Gründen werden Forschung und Entwicklung auf dem Gebiet der Messtechnik intensiv vorangetrieben. Die weitreichenden Einsatzgebiete und die hohe Bedeutung der Messtechnik machen deutlich, dass alle in Forschung und Technik tätigen Menschen Grundkenntnisse der Messtechnik benötigen, da sie als potentielle Nutzer mit ihr in Berührung kommen. Die Grundaufgabe der Messtechnik besteht in der Erfassung physikalischer Größen mit einer vorgegebenen Genauigkeit. Da prinzipiell jedes Messverfahren fehlerbehaftet ist, müssen die damit verbundenen Fehler abgeschätzt werden, um Aussagen über die Messgenauigkeit treffen zu können. Ziel ist es, die entstehenden Messfehler möglichst klein zu halten, wofür gegebenenfalls vorhandene Störeinflüsse kompensiert werden müssen. Dazu bedarf es allerdings in der Regel einer Systembeschreibung des Messvorgangs mit möglichst all seinen Eigenschaften und Einflussgrößen. Liegt eine derartige Beschreibung vor, so können mit systemtheoretischen Untersuchungen die Fehlereinflüsse modelliert und durch Systemoptimierung deren Einfluss minimiert werden.

1.1 Messskalen Im weitesten Sinne kann das Messen als eine Zuordnung von mathematischen Symbolen (z. B. Zahlen) zu bestimmten Merkmalen empirischer Objekte basierend auf objektiven Regeln beschrieben werden. Auf der Grundlage der bestehenden Merkmalsausprägungen lassen sich Zusammenhänge – man spricht hier von „empirischen Relationen“ – zwischen den Objekten herstellen. Die Menge der empirischen Objekte zusammen mit den zugehörigen Relationen wird als empirisches relationales System (ERS) bezeichnet. Messen wird in diesem Kontext zu einer homomorphen Abbildung des ERS auf ein mathematisches relationales System (MRS), wobei der Homomorphismus dafür sorgt, dass die Relationen zwischen den mathematischen Symbolen die Relationen zwischen den empirischen Objekten widerspiegeln [4]. Unterschiedliche Objekte mit identischer Merkmalsausprägung werden auf dasselbe mathematische Symbol abgebildet. Abhängig von der Aussagekraft der betrachteten Relationen zwischen den Objekten werden verschiedene Skalentypen oder Skalenniveaus unterschieden. Innerhalb eines Skalentyps sind gewisse Transformationen des MRS zulässig, ohne die Relatio© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5_1

4

1. Messsysteme und Messfehler Tabelle 1.1. Messskalen.

Nominalskala

Ordinalskala

Intervallskala

Verhältnisskala

empirische Relationen

Äquivalenz

Äquivalenz, Ordnung

Äquivalenz, Ordnung, empirische Addition

Äquivalenz, Ordnung, empirische Addition, empirische Multiplikation

zulässige Transformationen

u ˜ = f (u) mit f (.) bijektiv

u ˜ = f (u) mit f (.) streng monoton steigend

u ˜ = au + b mit a > 0

u ˜ = au mit a > 0

Lageparameter

Modalwert

Median

arithmetischer Mittelwert

harmonischer/ geometrischer Mittelwert

Streuungsmaße

Entropie

Quantile

Varianz

Variationskoeffizient

Transinformation

Rangkorrelation

Korrelationskoeffizient

Korrelationskoeffizient

Menge

total geordnete Menge

affine Gerade

Körper

Geschlecht, Blutgruppe

Härtegrad, Güteklasse

Temperatur, Kalenderzeit

Länge, Masse, Stromstärke

weitere Kenngrößen mathematische Struktur Beispiele von Merkmalen

nen im ERS zu beeinträchtigen. Tabelle 1.1 zeigt die wichtigsten Skalentypen zusammen mit den empirischen Relationen, die sie zu beschreiben vermögen [1]. Nominalskala: Die Nominalskala weist den geringsten Informationsgehalt auf. Es muss lediglich sichergestellt werden, dass gleiche bzw. unterschiedliche Merkmalsausprägungen im ERS auf gleiche bzw. unterschiedliche Symbole im MRS abgebildet werden. Als Symbole kommen neben Zahlen auch Begriffe in Frage. Zulässig sind beliebige bijektive (d. h. eineindeutige) Transformationen. Nominale Merkmale nennt man auch kategorial oder begrifflich, da sie rein attributiven Charakter haben. Exemplarisch seien hierzu das Geschlecht und die Blutgruppe genannt. Ordinalskala: Durch eine Ordinalskala wird die empirische Ordnungsstruktur zwischen empirischen Objekten verschiedener Merkmalsausprägung wiedergegeben. Zulässig sind hier streng monoton steigende Transformationen u ˜ = f (u). Ordinale Merkmale nennt man auch komparative Merkmale oder Rangmerkmale, da sie die Festlegung einer Ordnung zwischen den Objekten zulassen. Beispiele hierzu sind Güteklassen sowie Härtegrade nach Mohs.

1.2

Metrische Größen

5

Intervallskala: Hier liegt eine empirische Relation vor, die mathematisch durch Addition und Subtraktion repräsentiert werden kann. Differenzen ergeben somit einen Sinn, Verhältnisse jedoch nicht. Zulässig sind lineare Transformationen u ˜= a u + b mit a > 0. Der Nullpunkt der Skala ist willkürlich und kann über den Parameter b festgelegt werden, die Skaleneinheit kann über a frei gewählt werden. Als Lageparameter kommt neben dem Modalwert (Modus) und dem Median auch der arithmetische Mittelwert in Betracht, als Maß für die statistische Streuung der Werte die Standardabweichung (vgl. Abschnitt 4.2). Verhältnisskala: Bei dieser Skala liegt ein natürlicher Nullpunkt vor, während über die Skaleneinheit noch frei verfügt werden kann. Gegenüber der Intervallskala liegt zusätzlich eine empirische Relation vor, die im MRS durch Multiplikation bzw. Division repräsentiert wird. Zulässige Transformationen haben die Form u ˜ = a u mit a > 0. Die Intervall- und die Verhältnisskala werden unter dem Oberbegriff Kardinalskala oder metrische Skala zusammengefasst. Die zugehörigen Merkmale werden als quantitative bzw. metrische Merkmale bezeichnet und damit von den meist als qualitativ bezeichneten nominalen oder ordinalen Merkmalen abgehoben.

1.2 Metrische Größen Die meisten technisch relevanten Messgrößen sind metrischer Natur. Deren Messung wird durch die folgende Definition abgedeckt. Definition 1.1: Messen metrischer Größen

Eine metrische Größe zu messen heißt, ihre Ausprägung quantitativ zu erfassen. Dafür wird die Messgröße mit einer zuvor vereinbarten Maßeinheit – dem Normal (engl. measurement standard) – verglichen: Messgröße = Zahlenwert · Maßeinheit .

(1.1)

Der Zahlenwert der Messgröße gibt dabei an, wie oft in der Messgröße die Maßeinheit enthalten ist.  Diese Definition ist zwar für manche Aufgabenstellungen zu eng gefasst. Da in der Technik jedoch die Erfassung metrischer Größen überwiegt, wird im Folgenden auf die Betrachtung weiterer Definitionen bewusst verzichtet.

6

1. Messsysteme und Messfehler

Beispiel 1.1 (Zusammenhängende Schreibweise von Messgrößen und Maßeinheiten):

Die bei einem Marathonlauf zurückzulegende Strecke l beträgt 42 195 Meter. Man schreibt: l = 42 195 m = {l} [l] .

(1.2)

Messgrößensymbole sind in kursiver Schrift zu schreiben, Maßeinheiten in aufrechter Schrift [5]. Mit dem Operator { · } wird der Zahlenwert aus der Messgröße entnommen, mit dem Operator [ · ] die Maßeinheit: {l} = 42 195 ,

[l] = 1 m .

(1.3)

Die in der Fachliteratur in Tabellen und Achsbeschriftungen häufig verwendete Schreibweise l [m] ergibt daher keinen Sinn; richtig ist vielmehr l/m. Für eine Messung sind zwei Voraussetzungen notwendig. Zum einen muss die zu messende Größe eindeutig definiert sein. Zum anderen muss die Einheit oder das Normal durch eine Konvention festgelegt werden. Die Festlegung einer Einheit ist im Prinzip willkürlich. Man sollte jedoch die folgenden Bedingungen beachten: Jede Einheit sollte praktisch sein – sie sollte also sowohl im Alltagsleben als auch in der Wissenschaft verwendbar sein. Sie sollte gut reproduzierbar sein. Das Normal sollte möglichst unveränderlich sein.

1.2.1 Eine kurze Geschichte der Maßeinheiten Seit den Ursprüngen der Zivilisation haben das Messen, Wägen und Zählen die Menschheit beschäftigt. Bereits im Altertum waren sich die Völker sowohl über die Notwendigkeit wohldefinierter Maßeinheiten als auch über ihre grundlegende Bedeutung in der Fertigung, im Handel und in der Wissenschaft bewusst. Vor fünftausend Jahren erforderte der Bau der Pyramiden im alten Ägypten eine Festlegung verbindlicher und reproduzierbarer Maßeinheiten. Zu diesem Zweck mussten die Pyramidenbauer ihre Längennormale aus Holz jeden Monat mit der „königlichen Elle“ oder meh – einem Primärnormal aus Granit, das der Unterarmlänge des Pharaos entsprach – neu kalibrieren. Im Pyramidenbau funktionierte dieses System erstaunlich gut, was auch damit zusammenhing, dass eine Vernachlässigung des Kalibriergebots mit dem Tod bezahlt werden musste. Die mit dieser Vorgehensweise erreichte Präzision beim Pyramidenbau wird daran deutlich, dass die Abweichungen zwischen den Kantenlängen der Basis einer Pyramide teilweise lediglich 0,025 % betrugen.

1.2

Metrische Größen

7

Bis zum 18. Jahrhundert orientierten sich die meisten Maßeinheiten weiterhin am Menschen (z. B. Elle1 als Längenmaß). Viele Maßeinheiten wichen jedoch regional stark ab (die Regensburger Elle war etwa 81,1 cm lang, die Bremer Elle dagegen nur 54,7 cm), so dass die individuell festgelegten Einheiten den internationalen Handel erschwerten und Probleme in Forschung, Technik und Kommunikation hervorbrachten [9]. Doch im Jahre 1790 beschloss die französische Nationalversammlung im Geiste der französischen Revolution und unter dem Motto „À tous les temps, à tous les peuples“ (Für alle Zeiten, für alle Völker) die Schaffung eines neuen Einheitensystems. Es sollte ausschließlich auf objektiven physikalischen Kriterien gründen, einen universellen Charakter aufweisen und allen Nationen zugänglich sein. Daraufhin wurden von einer Gelehrtenkommission bestehend aus Borda, Condorcet, Lagrange, Laplace und Monge zwei Maßeinheiten vorgeschlagen: Der Meter als universelle Maßeinheit der Länge sollte den zehnmillionsten Teil der Entfernung vom Nordpol zum Äquator über Paris betragen; das Kilogramm als universelle Maßeinheit der Masse sollte der Masse eines Kubikdezimeters Wasser entsprechen. Trotz des universellen Charakters dieser Definitionen stellte sich bald heraus, dass ihre Realisierungen problematisch waren: Einerseits wurden mehrere Jahre benötigt, um die Erdmeridianlänge vom Pol zum Äquator zu vermessen; andererseits wurde bei der Definition des Kilogramms wegen der Temperaturabhängigkeit der Dichte des Wassers die Temperatur auf den Gefrierpunkt festgelegt, womit sich allerdings nicht sämtliche praktische Probleme ausräumen ließen. Aus diesen Gründen wurden im Jahre 1799 mit dem „Mètre des Archives“ und dem „Kilogramme des Archives“ wiederum materielle Gegenstände als primäre Maßverkörperungen festgelegt und damit gleichzeitig das erste metrische System geschaffen. Durch politische Umstände bedingt kam es jedoch erst 1875 zum Abschluss der Meterkonvention, die von 17 Staaten unterzeichnet wurde. Auch wenn die Meterkonvention und das daraus im Jahre 1960 abgeleitete Internationale Einheitensystem (kurz: SI, benannt nach „le Système Internationale d’unités“) einen erdumspannenden Charakter hatten, basierten die Definitionen der Basiseinheiten nach wie vor teilweise auf materiellen Prototypen, wie es bis 2019 beim Kilogramm der Fall war – oder aber sie erforderten einen unrealistisch hohen Realisierungsaufwand, etwa beim Ampere. Definition des Ampere bis 2019: Das Ampere ist die Stärke eines konstanten elektrischen Stromes, der, durch zwei parallele, geradlinige, unendlich lange und im Vakuum im Abstand von einem Meter voneinander angeordnete Leiter von vernachlässigbar kleinem, kreisförmigen Querschnitt fließend, zwischen diesen Leitern mit je einem Meter Leiterlänge die Kraft 2 · 10−7 Newton hervorrufen würde. 1

Die Elle als Maßeinheit bezeichnete ursprünglich die Länge des Unterarmes, war jedoch dann meist länger als der Abstand zwischen Ellbogen und Mittelfingerspitze.

8

1. Messsysteme und Messfehler

Aus diesem Grund haben mehrere nationale metrologische Institute – darunter das US-amerikanische NIST und die Physikalisch-Technische Bundesanstalt (PTB) – seit Jahrzehnten an Anpassungen der Definitionen der Normale an den Stand der Technik gearbeitet. Dabei wurde insbesondere eine Rückführung auf die Naturkonstanten angestrebt (Abschnitt 1.2.2).

1.2.2 Anpassung der Definitionen der Einheiten Zur Anpassung der Definitionen der Einheiten an den Stand der Technik prüft das Comité Internationale des Poids et Mesures (CIPM) auf regelmäßigen Sitzungen den aktuellen Entwicklungsstand und beschließt gegebenenfalls Veränderungen. Am Beispiel der Längeneinheit Meter sollen die Veränderungen des Normals dargestellt werden: 1889: Aus 37 Prototypen wird per Losverfahren der „Urmeter“ bestimmt. Es handelt sich dabei um einen x-förmigen Stab aus Platin-Iridium, auf welchem der Abstand zweier Strichmarken bei einer Stabtemperatur von 0 ◦ C die Längeneinheit 1 m darstellt. Der Urmeter wird mit sechs weiteren in Sèvres bei Paris aufbewahrt. Die restlichen Normale werden an die Unterzeichnerstaaten der Meterkonvention verteilt. 1960: Auf der 11. Generalkonferenz wird der Meter als das 1 650 763,73-fache der Wellenlänge der von Atomen des Nuklids 86 Kr (Krypton) beim Übergang vom Zustand 5d5 zum Zustand 2p10 ausgesandten, sich im Vakuum ausbreitenden Strahlung festgelegt. 1983: Auf der 17. Generalkonferenz wird der Meter in seiner bis heute gültigen Form definiert. Seither gilt als ein Meter die Länge, die das Licht im Vakuum in einem Intervall von 1/299 792 458 Sekunden zurücklegt. Bei der Anpassung der Definitionen der Normale an den Stand der Technik versucht man einerseits, die SI-Einheiten (z. B. das Ampere) auf die sogenannten Naturkonstanten zurückzuführen (siehe Tab. A.1). Andererseits hängen letztere vom gewählten Einheitensystem ab. In einer historischen Entscheidung beschlossen am 16. November 2018 die Mitgliedsstaaten des Internationalen Büros für Maß und Gewicht (Bureau International des Poids et Mesures, BIPM), das Internationale Einheitensystem (SI) grundlegend zu überarbeiten, was eine Änderung der Definitionen von vier der sieben Basiseinheiten – das Kilogramm, das Ampere, das Kelvin und das Mol – zur Folge hatte. Die Entscheidung wurde beim 26. Treffen der Generalkonferenz für Maß und Gewicht (CGPM) getroffen und gilt seit dem 20. Mai 2019 [2]. Erstmals sind sämtliche Basiseinheiten vollkommen unabhängig von materiellen Gegenständen und werden stattdessen durch Naturkonstanten definiert (Tab. 1.2, Abb. 1.1). Damit wird es künftig möglich sein, Masse, Temperatur, elektrischen Strom und Stoffmenge genauso präzise zu messen, wie wir bislang Zeit und Länge messen können.

1.2

Metrische Größen

9

Tabelle 1.2. Definierende Konstanten des Internationalen Einheitensystems.

Definierende Konstante Frequenz des Hyperfeinstrukturübergangs des Grundzustands im 133 Cs-Atom Lichtgeschwindigkeit im Vakuum

Symbol ΔνCs c

Numerischer Wert

Einheit

9 192 631 770

Hz m s−1

299 792 458 −34

J Hz−1

Planck-Konstante

h

6,626 070 15 · 10

Elementarladung

e

1,602 176 634 · 10−19

C

Boltzmann-Konstante

k

1,380 649 · 10−23

J K−1

Avogadro-Konstante

NA

6,022 140 76 · 1023

mol−1

Photometrisches Strahlungsäquivalent bei Strahlung der Frequenz 540 · 1012 Hz

Kcd

683

lm W−1

Abbildung 1.1. Definition der Basiseinheiten auf der Grundlage von Naturkonstanten.

1.2.3 Internationales Einheitensystem Für eine widerspruchsfreie Darstellung aller physikalischen Größen genügt es, aus ihnen sieben Basisgrößen auszuwählen, denen per Definition eine bestimmte qualitative und quantitative Eigenschaft zugeordnet wird. Alle anderen physikalischen Größen können als Verhältnis zu diesen Basisgrößen ausgedrückt werden. Das Internationale Einheitensystem stellt das heute gültige Einheitensystem in Deutschland dar. Die sieben in der Tabelle 1.3 aufgeführten Basisgrößen und Basiseinheiten des Internationalen Systems werden wie folgt definiert [2]. Sekunde: Die Sekunde (Einheitenzeichen s) ist die SI-Einheit der Zeit. Sie ist definiert, indem für die Cäsiumfrequenz ΔνCs , der Frequenz des ungestörten Hyperfeinstrukturübergangs des Grundzustands des Cäsiumatoms 133, der Zahlenwert 9 192 631 770 festgelegt wird, ausgedrückt in der Einheit Hz, die gleich s−1 ist. Meter: Der Meter (Einheitenzeichen m) ist die SI-Einheit der Länge. Er wird definiert, indem man den konstanten Zahlenwert der Lichtgeschwindigkeit im Vakuum c auf 299 792 458 festlegt, wenn diese in der Einheit m s−1 ausgedrückt wird, wobei die Sekunde durch die Frequenz von Cäsium ΔνCs definiert ist.

10

1. Messsysteme und Messfehler Tabelle 1.3. Basisgrößen und Basiseinheiten.

Gebiet

Basisgröße

Symbol

Basiseinheit

Zeichen

Mechanik

Länge Masse Zeit

l m t

Meter Kilogramm Sekunde

m kg s

Elektrotechnik

Stromstärke

I

Ampere

A

Thermodynamik

Temperatur

T

Kelvin

K

Optik

Lichtstärke

IL

Candela

cd

Chemie

Stoffmenge

n

Mol

mol

Kilogramm: Das Kilogramm (Einheitenzeichen kg) ist die SI-Einheit der Masse. Es wird definiert, indem man den konstanten Zahlenwert des Planck’schen Wirkungsquantums („Planck’sche Konstante“) h auf 6,626 070 15 · 10−34 festlegt, wenn dieses in der Einheit J s ausgedrückt wird, die der Einheit kg m2 s−1 entspricht, wobei der Meter und die Sekunde über c und ΔνCs definiert werden. Ampere: Das Ampere (Einheitenzeichen A) ist die SI-Einheit der elektrischen Stromstärke. Es wird definiert durch den Zahlenwert der Elementarladung e, welcher auf 1,602 176 634 · 10−19 festgelegt wird, wenn diese in der Einheit C ausgedrückt wird, welche gleich A s ist, wobei die Sekunde durch ΔνCs definiert ist. Kelvin: Das Kelvin (Einheitenzeichen K) ist die SI-Einheit der thermodynamischen Temperatur. Es wird definiert durch den konstanten Zahlenwert der Boltzmann-Konstante k, welcher auf 1,380 649 · 10−23 festgelegt wird, ausgedrückt in der Einheit J K−1 , die gleich kg m2 s−2 K−1 ist, wobei das Kilogramm, der Meter und die Sekunde mittels h, c und ΔνCs definiert sind. Temperaturdifferenzen dürfen auch in Grad Celsius, mit dem Einheitenzeichen ◦ C, angegeben werden. Mol: Das Mol (Einheitenzeichen mol), ist die SI-Einheit der Stoffmenge. Ein Mol enthält genau 6,022 14076 · 1023 Einzelteilchen. Diese Zahl entspricht dem für die Avogadro-Konstante NA geltenden festen Zahlenwert, ausgedrückt in der Einheit mol−1 , und wird als Avogadro-Zahl bezeichnet. Die Stoffmenge (Zeichen n) eines Systems ist ein Maß für eine Zahl spezifizierter Einzelteilchen. Bei einem Einzelteilchen kann es sich um ein Atom, ein Molekül, ein Ion, ein Elektron, ein anderes Teilchen oder eine Gruppe solcher Teilchen mit genau angegebener Zusammensetzung handeln. Candela: Die Candela (Einheitenzeichen cd) ist die SI-Einheit der Lichtstärke in einer bestimmten Richtung. Sie ist durch den numerischen Wert des photometrischen Strahlungsäquivalents für monochromatische Strahlung der Frequenz 540 · 1012 Hz, Kcd , auf 683 festgelegt, wenn dieses in der Einheit lm W−1 ausgedrückt wird, welches gleich cd sr W−1 oder cd sr kg−1 m−2 s3 ist, wobei das Kilogramm, der Meter und die Sekunde durch h, c und ΔνCs definiert sind.

1.3

Messsysteme

11

Vorteilhaft am SI-Einheitensystem ist die Tatsache, dass die Einheiten zueinander kohärent (d. h. aufeinander abgestimmt) sind. Abgeleitete Einheiten (wie z. B. m/s) können durch Multiplikation und Division von Basiseinheiten ermittelt werden, wobei keine Proportionalitätsfaktoren nötig sind. Ebenfalls genormt wurden die Vorsätze der internationalen Einheiten, wobei der Zahlenfaktor sich stets auf das Dezimalsystem bezieht. Die wichtigsten genormten Vorsätze zur Umschreibung von dezimalen Vielfachen und Teilen der Einheiten sind in der Tabelle 1.4 aufgeführt. Der Vorsatz bei der jeweiligen Einheit vermeidet unhandliche Zahlenwerte und erleichtert somit auch den Umgang mit den Einheiten im Sprachgebrauch. Ebenfalls hilfreich sind die abgeleiteten SI-Einheiten, da durch ihre Festlegung die jeweilige Formelgröße nicht stets mit den kompletten Basiseinheiten aufgeführt werden muss. Eine Auswahl wichtiger abgeleiteter SI-Einheiten zeigt die Tabelle 1.5.

1.3 Messsysteme 1.3.1 Struktur von Messsystemen Um physikalische Größen zu messen, benötigt man ein Messsystem. Je nach Art der Messaufgabe handelt es sich hierbei um Systeme unterschiedlichster Komplexität. Die einfachsten Systeme ergeben sich bei den sogenannten direkten Messverfahren, bei denen der gesuchte Messwert durch unmittelbaren Vergleich mit einem Bezugswert derselben Messgröße gewonnen wird. Beispiel 1.2 (Balkenwaage): Bei einer Balkenwaage wird die unbekannte Masse m mit

der bekannten Masse der Gewichtssteine verglichen. Das Messverfahren ist daher direkt. Die meisten physikalischen Größen können hingegen nur indirekt gemessen werden. Die gesuchte Messgröße wird dabei über physikalische Zusammenhänge auf andere Größen zurückgeführt und aus diesen ermittelt. Beispiel 1.3 (Federwaage): Die Masse m soll über die Auslenkung x einer Feder mit

der Federkonstanten c bestimmt werden. Über das Kräftegleichgewicht erhält man mg = cx



m=

cx , g

(1.4)

wobei g die Erdbeschleunigung bezeichnet. Die Messgröße ist die Masse m, abgelesen wird allerdings die Auslenkung x, die über den Zusammenhang des Kräftegleichgewichts auf die gesuchte Größe zurückgeführt wird.

12

1. Messsysteme und Messfehler

Tabelle 1.4. Genormte Vorsätze.

Vorsatz

Zeichen

Zahlenwert

Vorsatz

Zeichen

Zahlenwert

Yotta Zetta Exa Peta Tera Giga Mega Kilo Hekto Deka

Y Z E P T G M k h da

1024 1021 1018 1015 1012 109 106 103 102 101

Yokto Zepto Atto Femto Piko Nano Mikro Milli Zenti Dezi

y z a f p n μ m c d

10−24 10−21 10−18 10−15 10−12 10−9 10−6 10−3 10−2 10−1

Tabelle 1.5. Abgeleitete SI-Einheiten und zugehörige Größen.

Größe und Formelzeichen ebener Winkel Raumwinkel Frequenz Kraft Druck Energie Arbeit Wärmemenge Leistung elektrische Ladung elektrische Spannung elektrische Kapazität elektrischer Widerstand elektrischer Leitwert Induktivität magnetischer Fluss magnetische Flussdichte Lichtstrom Beleuchtungsstärke Radioaktivität Energiedosis Äquivalentdosis katalytische Aktivität

α Ω f F p E W Q P Q U C R G L Φ B Φ Ev A D H z

SI-Einheit Radiant Steradiant Hertz Newton Pascal Joule Joule Joule Watt Coulomb Volt Farad Ohm Siemens Henry Weber Tesla Lumen Lux Becquerel Gray Sievert Katal

rad sr Hz N Pa J J J W C V F Ω S H Wb T lm lx Bq Gy Sv kat

Beziehung 1 rad 1 sr 1 Hz 1N 1 Pa 1J 1J 1J 1W 1C 1V 1F 1Ω 1S 1H 1 Wb 1T 1 lm 1 lx 1 Bq 1 Gy 1 Sv 1 kat

= = = = = = = = = = = = = = = = = = = = = = =

1 m/m 1 m2 /m2 1/s 1 kg m/s2 1 N/m2 1Nm = 1Ws 1Nm = 1Ws 1Nm = 1Ws 1 J/s = 1 N m/s 1As 1 W/A 1 C/V = A s/V 1 W/A2 1/Ω 1 Wb/A = 1 V s/A 1Vs 1 V s/m2 1 cd sr 1 lm/m2 1 s−1 1 m2 /s2 1 m2 /s2 1 mol/s

1.3

Messsysteme

13

Abbildung 1.2. Allgemeine Struktur eines Messsystems.

Anhand des in Abb. 1.2 aufgeführten Signalflussplans sollen die wichtigsten Komponenten eines Messsystems erläutert werden. Dabei müssen in einem realen Messsystem nicht zwangsläufig alle in Abb. 1.2 dargestellten Komponenten enthalten sein. Am Anfang der Messkette befindet sich der Aufnehmer (auch Sensor oder Fühler genannt), an dessen Eingang die zu messende Größe u anliegt. Am Ausgang liefert der Aufnehmer ein (meist elektrisches) Signal, welches von der Messgröße abhängt. Aufgabe des Messumformers ist es, das Eingangssignal in ein zur Weiterverarbeitung (z. B. Digitalisierung, Filterung, Übertragung, Speicherung) geeignetes, oft normiertes elektrisches Ausgangssignal abzubilden. Dafür kommen u. a. Messverstärker zum Einsatz. Die Signalverarbeitung hat zum Ziel, aus dem Eingangssignal den informationstragenden Parameter zu extrahieren (z. B. Amplitude oder Frequenz) und daraus das Messergebnis zu ermitteln. In modernen Messsystemen wird dafür meist das Eingangssignal digitalisiert und dessen Verarbeitung mit einem Computer oder einem Mikrocontroller realisiert. Um das Verhalten von Messsystemen untersuchen zu können, ist zunächst eine Beschreibung des Systems erforderlich – man spricht hierbei von einer Modellbildung. Sie dient dazu, einen mathematischen Zusammenhang zwischen Ein- und Ausgangsgrößen am System zu ermitteln.

1.3.2 Beschreibung von Messsystemen im Zustandsraum Zur Beschreibung des dynamischen Verhaltens eines Messsystems können neben der zu erfassenden Messgröße (Eingangsgröße) und dem angezeigten Wert (Ausgangsgröße) auch die inneren Zustandsgrößen des Systems berücksichtigt werden. Diese Zustandsgrößen vermitteln gewissermaßen zwischen Ein- und Ausgang und werden im Zustandsvektor x(t) zusammengefasst [7, 8]. Im Zustandsraum wird das Messsystem allgemein durch die vektorwertige Zustandsgleichung ˙ x(t) =

dx(t) = w(x(t), u(t), z(t), t) dt

(1.5)

und durch die Ausgangsgleichung y(t) = F (x)

(1.6)

14

1. Messsysteme und Messfehler

beschrieben. Abbildung 1.3 zeigt die resultierende Darstellung des Messsystems. Dabei bezeichnet u(t) die Messgröße, die als Eingangssignal fungiert; y(t) ist die Ausgangsgröße, d. h. diejenige Größe, die von dem Messsystem ermittelt wird.

Abbildung 1.3. Zustandsraumdarstellung des Messsystems (x(t): Zustandsvektor des Messsystems, u(t): Messgröße, y(t): Ausgangsgröße, z(t): Störgrößenvektor).

Unter sehr allgemeinen Voraussetzungen, die bei technischen Systemen praktisch immer erfüllt sind, lässt sich der Zustandsvektor für beliebige Zeitpunkte t > t0 eindeutig bestimmen, sofern der Anfangswert x(t0 ) und die Verläufe der Eingangsgrößen im Intervall [t0 , t] bekannt sind. Neben der als skalarwertig angenommenen Messgröße u(t) können bei Messsystemen auch Störgrößen z(t) das Systemverhalten während des Betriebs ändern, weshalb sie allesamt Eingangsgrößen des Messsystems sind. Dies soll nun an zwei einfachen Beispielen gezeigt werden. Beispiel 1.4 (Federwaage): Bei der Federwaage aus Beispiel 1.3 entspricht die Masse

m der zeitlich konstanten Messgröße u. Der Zustandsvektor x enthält als einzige Komponente die Auslenkung x. Die Federkonstante c ist ein Parameter des Messsystems. Ändert sich die Federkonstante während des Betriebs, etwa aufgrund von Alterungserscheinungen, so ist c eine Störgröße z des Messsystems. Schließlich stellt der auslenkungsproportionale Schätzwert der Masse die Ausgangsgröße y dar.

Beispiel 1.5 (Handelswaage): Bei einer Handelswaage sind die Hebelarme Systempa-

rameter, die sich mit der Umgebungstemperatur ändern. Man kann nun entweder die Länge der Hebelarme selbst als Störgröße z auffassen oder die Umgebungstemperatur als zusätzliche Störgröße z betrachten, deren funktionelle Wirkung auf die Hebelarme beschrieben werden muss. Von einem idealen Messsystem wird verlangt, dass es unter den vielen Einflussgrößen allein die Messgröße u in die Ausgangsgröße y abbildet. In der Praxis ist das allerdings unmöglich. Am Beispiel der Handelswaage erkennt man, dass durch eine

1.3

Messsysteme

15

genaue Modellbildung die Wirkung vieler Störeinflüsse auf das Messergebnis mathematisch beschrieben werden kann. Das ermöglicht in manchen Fällen sogar eine Kompensation der Störungen. Von besonderer Bedeutung ist das Verhalten eines Messsystems im stationären Zustand. In der Messtechnik beschreibt man den Zusammenhang zwischen der zu erfassenden Messgröße u und dem angezeigten Wert y im stationären Zustand mit Hilfe der Kennlinie (vgl. Kapitel 3).

1.3.3 Physikalische Messkennlinie Eine Grundaufgabe der Messtechnik ist es, stationäre Messgrößen zu erfassen, die sich während der Messung nicht ändern. Gesucht ist also eine stationäre Kennlinie, die sich ergibt, wenn alle Einschwingvorgänge abgeklungen sind. Im stationären Zustand des Systems gilt: x˙ = 0 .

(1.7)

Hieraus erhält man die stationäre physikalische Messkennlinie. Die Auflösung von (1.5) mit x˙ = 0 ergibt, dass x von der Messgröße u und vom Störgrößenvektor z abhängt. Der Zustandsvektor ist nur noch indirekt von der Zeit abhängig: x = g(u, z) .

(1.8)

Einsetzen von x in die Ausgangsgleichung (1.6) führt zur physikalischen Messkennlinie: y = F (x) = F (g(u, z)) = f (u, z) .

(1.9)

Für die physikalische Messkennlinie y = f (u, z) wird im Messbereich eine stetige, streng monotone Funktion gefordert, wodurch Mehrdeutigkeiten vermieden werden. Mit beliebigem ε > 0 muss im gesamten Messbereich eine der folgenden Bedingungen gelten: f (u + ε) > f (u)

oder

f (u + ε) < f (u) .

(1.10)

1.3.4 Messsignale als Informationsträger Innerhalb der Messkette (d. h. zwischen den Komponenten des Messsystems) wird die Information über die Messgröße u in Form von Messsignalen (meist elektrischen Spannungen und Strömen) ausgetauscht, vgl. Abb. 1.2. Die Messsignale x(t) sind somit Träger des Messparameters u. Die Messsignale selbst sind im Allgemeinen – auch bei einer konstanten Messgröße u – zeitlich veränderlich. Dabei kommen in messtechnischen Anwendungen harmonische und impulsförmige Messsignale besonders häufig vor. Bei harmonischen Messsignalen wird die Messgröße u entweder durch die Amplitude, die Frequenz

16

1. Messsysteme und Messfehler Amplitudenmodulation (AM)

Messgröße 2

2

1 0 1 −1 −2 0

0

1

2

3

4

5

6

0

1

Pulsamplitudenmodulation (PAM)

2

3

4

5

6

Pulscodemodulation (PCM) 7

2

6 5 4

1

3 2 1

0

0

2

4

6

8

10

12

14

16

18

20

0

0

Frequenzmodulation (FM)

2

4

6

8

10

12

14

16

18

20

Pulsweitenmodulation (PWM) 1

0

0 0

1

2

3

4

5

6

0

1

2

3

4

5

6

Abbildung 1.4. Informationstragende Parameter eines Messsignals u(t) bei in der Messtechnik gängigen

Modulationsarten: Amplitude (AM, PAM, PCM), Frequenz (FM), Zeitdauer (PWM).

oder die Phase dargestellt. Bei impulsförmigen Messsignalen können zur Beschreibung der Messgröße u. a. die Impulshöhe, die Impulsdauer und die Impulsfrequenz herangezogen werden. Abhängig vom informationstragenden Parameter lassen sich Messsignale wie folgt klassifizieren: Amplitudenanaloge Signale sind wertkontinuierliche Signale, bei denen die Signalamplitude proportional zur Messgröße u ist. Die Zeit kann kontinuierlich oder diskret sein. Abbildung 1.4 zeigt drei Beispiele amplitudenanaloger Messsignale. Neben dem Messgrößensignal u(t) selbst zeigt die Abbildung das zeitkontinuierliche amplitudenmodulierte (AM) Signal xAM (t) sowie das zeitdiskrete pulsamplitudenmodulierte (PAM) Signal xPAM [n], wobei n den diskreten Zeitindex bezeichnet.

1.4

Messfehler

17

Digitale Signale sind wert- und zeitdiskrete Signale, bei denen die Messgröße u mit Hilfe von Binärzahlen codiert wird. Als Beispiel eines digitalen Signals zeigt Abb. 1.4 ein pulscodemoduliertes (PCM) Signal xPCM [n], welches aus dem PAMSignal xPAM [n] durch Quantisierung der Amplitudenwerte mit 3 Bit erhalten wurde (vgl. Abschnitt 7.2). Frequenzanaloge Signale sind zeitkontinuierliche Signale, bei denen die Frequenz eine Funktion der Messgröße u ist. Die Signalwerte können kontinuierlich oder diskret sein. Exemplarisch zeigt Abb. 1.4 ein frequenzmoduliertes (FM) Signal xFM (t), dessen Momentanfrequenz (siehe Kapitel 8) proportional zur Messgröße u(t) ist. Zeitanaloge Signale sind zeitkontinuierliche impulsförmige Signale, bei denen entweder die Impulsdauer oder der Abstand zwischen aufeinanderfolgenden Impulsen eine Funktion der Messgröße u ist. Beim pulsweitenmodulierten (PWM) Signal xPWM (t) in Abb. 1.4 ist die Impulsdauer proportional zur Messgröße u(t).

1.4 Messfehler Nach der Beschreibung der physikalischen Eigenschaften von Messsystemen müssen deren Fehler2 abgeschätzt werden. Bevor von Fehlern gesprochen werden kann, muss klar herausgestellt werden, welche Größe am Prozess als Messgröße verstanden werden soll. Bei einfachen Aufgaben wie den Abmessungen eines Werkstücks entsteht darüber keine Diskussion. Hat aber die Messgröße von Ort zu Ort verschiedene Werte, so wird man sich auf die Messung an einer oder mehreren repräsentativen Stellen einigen müssen. Bei Messung an mehreren Stellen wird man z. B. den Mittelwert bilden und diesen als Ersatz für den wahren Messwert nehmen. Um Überbeanspruchungen durch Wärmedehnung zu vermeiden, wird die Temperatur von Dampfturbinengehäusen überwacht. Als repräsentative Messorte werden solche ausgewählt, die bei instationären Vorgängen untereinander große Temperaturdifferenzen aufweisen.

Beispiel 1.6 (Temperaturmessung an Dampfturbinen):

Beispiel 1.7 (Heizwert von Brennstoffen): Bei der Bestimmung des Heizwertes von fes-

ten Brennstoffvorräten wird der Heizwert einer zufälligen Probe kaum interessieren. Um Fehler zu vermeiden, wird man mehrere Proben aus dem Brennstoffvorrat 2 In der Messtechnik wird nach DIN 1319-1 die Differenz zwischen dem Messergebnis und dem wahren Wert einer Messgröße als Messabweichung bezeichnet [3]. Hier wird stattdessen der Begriff Messfehler verwendet.

18

1. Messsysteme und Messfehler

entnehmen und nach statistischen Methoden einen mittleren Heizwert des Vorrates schätzen (vgl. Kapitel 4). Zur Beurteilung einer bestimmten Messeinrichtung wird zunächst angenommen, dass die Messgröße mit einem bekannten Wert an der zu untersuchenden Messeinrichtung anliegt.

1.4.1 Absoluter und relativer Fehler Definition 1.2: Absoluter Fehler

Der absolute Fehler eines Messsystems ist wie folgt definiert: F = ya − yw .

(1.11)

Er beschreibt die positive oder negative Abweichung des angezeigten oder ausgegebenen Wertes ya vom wahren Wert yw . 

Definition 1.3: Relativer Fehler

Der relative Fehler Fr ist eine bezogene Größe, wobei als Bezugswert in der Regel der wahre Wert yw gewählt wird: Fr =

F ya − yw = . yw yw

Er ist dimensionslos und wird meist in Prozent angegeben.

(1.12) 

Zur Abschätzung von Messfehlern ist meist nur der Betrag des Fehlers von Interesse, zur Korrektur der Fehler ist zusätzlich das Vorzeichen von Bedeutung. Es erhebt sich natürlich die Frage, wie man den Fehler bestimmen kann, wenn der wahre Wert yw überhaupt nicht bekannt ist. Dazu gibt es im Wesentlichen zwei Möglichkeiten (vgl. Abb. 1.5). a) Als wahrer Wert yw kann der von einem besonders genauen Präzisionsinstrument Gn angezeigte Messwert dienen. b) Mit der Messeinrichtung wird ein bekanntes Normal N (Maßverkörperung) vermessen. Der angezeigte Wert ya wird mit dem bekannten wahren Wert des Normals yw verglichen. Der Fehler des Präzisionsinstruments wird z. B. durch Vermessung des Normals festgestellt. Ein Beispiel für ein (historisches) Normal ist der Urmeter.

1.4

Messfehler

19

Abbildung 1.5. Möglichkeiten der Fehlerbestimmung.

1.4.2 Fehlerursachen Jede Messung ist fehlerbehaftet. Der Grund liegt in bestimmten Eigenschaften des Messgegenstandes, in Unvollkommenheiten der Messeinrichtung und des Messverfahrens, in wechselnden Umwelteinflüssen und in Fehlern des Beobachters. Man unterscheidet zwischen zwei Fehlerklassen: Systematische Fehler: Systematische Fehler sind dadurch charakterisiert, dass die Ursache des Fehlers und die Art der Einwirkung bekannt sind. Mit erhöhtem Aufwand im Messsystem ist deshalb eine Kompensation des systematischen Fehlers zumindest prinzipiell möglich. Zufällige Fehler: Zufällige (stochastische) Fehler weisen bei wiederholten Messungen unter gleichen Bedingungen verschiedene Beträge und Vorzeichen auf: die Messwerte „streuen“. Zufällige Fehler sind im Einzelnen nicht erfassbar, da ihre Ursachen teilweise unbekannt sind. Bei Messaufgaben interessiert deshalb nicht das Ergebnis einer einzelnen, zufälligen Messung, sondern z. B. der Mittelwert über viele Messungen. Ein Beispiel dafür ist die oben angeführte Bestimmung des Heizwertes von festen Brennstoffen. Andere Beispiele wären die Bestimmung der mittleren Ausfallrate von Bauelementen oder die Messung von elektrischen Spannungen, die von Rauschen überlagert sind. Die Messung solcher stochastischer Größen wird in Kapitel 4 behandelt. In dieser Einteilung steckt eine gewisse Willkür. Es kann z. B. passieren, dass ein Fehler aufgrund mangelnder Kenntnis der Messaufgabe zuerst als stochastisch deklariert wurde. Mit besserem Systemverständnis entdeckt man dann jedoch deterministische Fehlereinflüsse, so dass man nun von einem systematischen Fehler spricht. Ungeachtet der oben aufgeführten Fehlerklassen können Fehler durch folgende Ursachen bedingt sein. Vereinfachtes Modell des Messsystems: Ein System mit verteilten Speichern werde z. B. durch konzentrierte, ideale Komponenten beschrieben. Die Messung einzelner Zustandsgrößen dieses Systems wird die tatsächlichen Abläufe nur näherungsweise erfassen. Exemplarisch sei die in Beispiel 1.6 geschilderte Temperaturmessung an Dampfturbinen erwähnt.

20

1. Messsysteme und Messfehler

Innere Störgrößen: Hierbei handelt es sich um Störgrößen im Messgerät selbst. Beispiele dafür sind Alterungseffekte an für die Messung wichtigen Bauteilen. Bei Drehspulinstrumenten oder Waagen ist eine Feder eingebaut, deren Eigenschaften sich im Laufe der Lebensdauer verändert, was sich in einer fehlerhaften Anzeige bemerkbar macht. Äußere Störgrößen: Der physikalische Messeffekt wird zumeist durch eine Reihe unerwünschter Einflüsse gestört. Ein Beispiel dafür ist die Temperaturabhängigkeit einer Widerstandsbrückenschaltung aus Halbleiter-Dehnungsmessstreifen zur Druckmessung. Wenn man den nicht erwünschten Einfluss isolieren und deterministisch beschreiben kann, handelt es sich um systematische Fehler, die bei wiederholten Messungen gleichen Betrag und Vorzeichen aufweisen. Eine gezielte Kompensation ist möglich, was in Abschnitt 3.3.6 beschrieben wird. Eine andere Art von äußeren Störgrößen sind stochastische Einstreuungen, die man nicht kompensieren kann. Zu ihrer Unterdrückung kommen u. a. einfache Mittelwertfilter (Kapitel 4) oder Verfahren der Signalschätzung (Abschnitt 6.7) zum Einsatz. Beobachtungsfehler: Der Beobachter, der eine Messung durchführt, kann als Fehlerquelle in Betracht kommen, wenn er die Anzeige falsch abliest. Dynamische Fehler: Bei vielen Messaufgaben werden zeitlich aufeinander folgende Messwerte benötigt. Ein Beispiel dafür ist der zeitliche Druckverlauf im Zylinder eines Verbrennungsmotors während des Verdichtungshubes. Das Anzeigesignal der Messeinrichtung soll der Messgröße verzögerungsfrei folgen. Abweichungen werden als dynamische Fehler bezeichnet. Eine Diskussion erfolgt in Kapitel 5. Rückwirkung: Die Messeinrichtung braucht für den Messvorgang Energie oder Leistung, die dem Prozess entzogen wird. Der Wert der Messgröße mit angeschlossener Messeinrichtung unterscheidet sich vom Wert, der ohne Messeinrichtung erreicht worden wäre. Die Größe dieses Fehlers hängt davon ab, welche Messgrößenänderung der Energieaustausch im Prozess hervorruft. Dieser Fehler wird „Rückwirkung der Messeinrichtung auf den Prozess“ genannt und wird in Abschnitt 3.4 behandelt. Beispiel 1.8 (Temperaturmessung einer Flüssigkeit): Die Temperatur T einer Flüssig-

keit der Wärmekapazität cV soll mit einem Berührungsthermometer der Wärmekapazität cF gemessen werden, das vor dem Eintauchen die Temperatur T0 hat. Die gemessene Temperatur Tm errechnet sich aus der Energiebilanz vor und nach dem Eintauchen: Evor = cV T + cF T0 = Enach = (cV + cF ) Tm ,

(1.13)

cV (Tm − T ) = cF (T0 − Tm ) ,

(1.14)

1.4

Messfehler

21

ΔT = Tm − T =

cF (T0 − Tm ) . cV

(1.15)

Der Messfehler ΔT wird klein, wenn die Wärmekapazität des Messfühlers cF klein gegenüber der der Flüssigkeit cV ist.

1.4.3 Spezifizierte Normalbedingungen In der Spezifikation (technischen Beschreibung) eines Messsystems werden die Randbedingungen und Umwelteinflüsse festgehalten, unter denen der Hersteller einen maximalen Fehler garantiert. Dazu gehören die folgenden Angaben: Messbereich, Messgenauigkeit, Betriebsbedingungen, Einbauvorschriften, Energieversorgung, Abmessungen. Entscheidend sind die Angaben über die Fehler, die einen Vergleich mit ähnlichen Geräten und deren Messgenauigkeit ermöglichen. Die sich im eingeschwungenen Zustand einstellenden Fehler werden als statische Fehler gekennzeichnet. Man kann somit zwei Klassen von statischen Fehlern unterscheiden: Statische Fehler unter spezifizierten Normalbedingungen: Die Störgrößen aus der Umgebung sind gemäß der Spezifikation konstant oder auf null zu halten: z = z0 .

(1.16)

Statische Fehler bei Abweichung von den spezifizierten Normalbedingungen: Für jede wichtige systematische Störgröße ist eine definierte Abweichung von den Normalbedingungen herzustellen und die Auswirkung auf die Ausgangsgröße als Fehler festzustellen [6]: z = zi .

(1.17)

Im folgenden Beispiel sollen die möglichen Fehlerursachen an einer konkreten Messaufgabe dargestellt werden. Beispiel 1.9 (Winkelgeschwindigkeitsmessung): Die Winkelgeschwindigkeit ω eines

horizontal rotierenden Körpers soll über eine Beschleunigungsmessung bestimmt werden (Abb. 1.6). Die Winkelgeschwindigkeit ω wird über die Kräfte gemessen, die bei Rotation auf einen Körper wirken. Aus der Physik sind die folgenden Zusammenhänge bekannt: at = ω˙ × r

(Tangentialbeschleunigung),

(1.18)

22

1. Messsysteme und Messfehler

Abbildung 1.6. Winkelgeschwindigkeitsmessung.

Abbildung 1.7. Beschleunigungsmessung am rotierenden Objekt.

azp = ω × v

(Zentripetalbeschleunigung).

(1.19)

Angewendet auf den zweidimensionalen Fall ergibt sich nach Abb. 1.6 unter Ver˙ wendung von Polarkoordinaten und den Beträgen ω = |ω|, r = |r| und ω˙ = |ω| eine Beschleunigung im Punkt P von aP = aO + at + azp = aO + ω˙ · r · eϕ − ω 2 · r · er ,

(1.20)

wobei aO die Führungsbeschleunigung des Aufpunktes O bezeichnet. Im Falle einer Rotation um eine feste Achse senkrecht zur Erdoberfläche kann man davon ausgehen, dass die Achse eine reine Drehbewegung ausführt und daher aO = 0 ist. Bringt man nun einen idealen Beschleunigungssensor, der nur in einer Richtung empfindlich ist, gemäß Abb. 1.7 an, so erhält man die folgende Messgleichung:  (1.21) |aM | = (−ω˙ · r · sin θ)2 + (−ω 2 · r · cos θ)2 . Im stationären Fall, d. h. bei konstanter Winkelgeschwindigkeit (ω˙ = 0), ergibt sich

1.5

Literatur

23

die folgende statische Messkennlinie: aM = −ω 2 · r · cos θ .

(1.22)

Man erkennt sofort, dass die Sensorposition r und die Sensorausrichtung θ das Messergebnis beeinflussen. Aber auch das Auftreten einer Führungsbeschleunigung aO in (1.20) oder eine veränderliche Winkelgeschwindigkeit (ω˙ = 0) verfälschen das Messergebnis. Die stationäre Messkennlinie in Beispiel 1.9 ist quadratisch: y = const · u2

mit

u=ω

und

y = aM .

(1.23)

Die Sensorposition r und -ausrichtung θ sind innere Störgrößen des Messsystems. Als Normalbedingung wird daher die konstruktiv vorgegebene Platzierung r0 , θ0 spezifiziert. Die Führungsbeschleunigung aO ist eine äußere Störgröße, die je nach Anwendung systematischer Natur (Achse steht nicht senkrecht zur Erdoberfläche) oder stochastischer Natur (etwa bei unbekannten Vibrationen der Messanordnung) sein kann. Statt einer quadratischen stationären Kennlinie wäre eine lineare Kennlinie wünschenswert. Sie bietet den Vorteil einer konstanten Empfindlichkeit im gesamten Messbereich. Methoden zur Linearisierung der Messkennlinie werden in Kapitel 3 behandelt. Beim Übergang auf eine neue stationäre Winkelgeschwindigkeit ω treten dynamische Fehler auf, die proportional zur Winkelbeschleunigung ω˙ sind. Ändert sich ω sprungförmig, so ist die Messung erst nach einer gewissen Zeit brauchbar, wenn die dynamischen Fehlerterme weitgehend abgeklungen sind. Das dynamische Verhalten von Messsystemen wird ausführlich in Kapitel 5 behandelt.

1.5 Literatur [1] J. Beyerer. Verfahren zur quantitativen statistischen Bewertung von Zusatzwissen in der Meßtechnik. VDI Verlag, Düsseldorf, 1999. [2] Bureau International des Poids et Mesures. The International System of Units. BIPM, Sévres, 9. Auflage, 2019. [3] Deutsches Institut für Normung. Grundlagen der Messtechnik – Teil 1: Grundbegriffe. DIN 1319-1, 1995. [4] L. Finkelstein. Widely, strongly and weakly defined measurement. Measurement, 34:39–48, 2003. [5] International Organization for Standardization. Quantities and units – Part 1: General. ISO 80000-1, 2009.

24

1. Messsysteme und Messfehler

[6] JCGM – Joint Committee for Guides in Metrology. Evaluation of measurement data – Guide to the expression of uncertainty in measurement, 2008. [7] F. Puente León und H. Jäkel. Signale und Systeme. De Gruyter Oldenbourg, Berlin, 7. Auflage, 2019. [8] F. Puente León und U. Kiencke. Ereignisdiskrete Systeme: Modellierung und Steuerung verteilter Systeme. Oldenbourg, München, 3. Auflage, 2013. [9] A. Robinson. The story of measurement. Thames & Hudson, London, 2007.

Kapitel 2 Kurvenanpassung

2

2

2

Kurvenanpassung

2.1 Approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Approximation mit orthonormalen Funktionensystemen 2.1.1.1 Approximation mit der Fourier-Reihe . . . . . . 2.1.1.2 Approximation mit Walsh-Funktionen . . . . . ¨ 2.1.2 Least-Squares-Schatzer . . . . . . . . . . . . . . . . . . 2.1.3 Regressionsanalyse . . . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

28 28 31 32 33 34

2.2 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Polynominterpolation . . . . . . . . . . . . . . . 2.2.2 Interpolation durch Lagrange-Polynome . . . . 2.2.3 Interpolation durch Newton-Polynome . . . . . 2.2.4 Spline-Interpolation . . . . . . . . . . . . . . . . 2.2.5 Systemtheoretische Deutung der Interpolation .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

36 36 37 39 42 47

2.3 Kennfeldinterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

2.4 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

2 Kurvenanpassung Die analytische Darstellung einer Messkennlinie erfordert eine Modellbildung des Systems. Da das zugrundeliegende Modell in der Praxis oft unbekannt ist, liegt die stationäre Messkennlinie häufig nicht in analytischer Form, sondern als Menge von n Messpunkten (uk , yk ), k ∈ {0, . . . , n − 1}, vor. Gesucht wird nun eine analytische Darstellung der Kennlinie, welche die gemessenen Punkte in geeigneter Weise nachbildet. Dadurch können für beliebige Zwischenwerte u die zugehörigen Werte y angegeben werden. Des Weiteren kann die auf diese Weise ermittelte Messkennlinie mit den in Kapitel 3 besprochenen Methoden untersucht und optimiert werden. Bei der Konstruktion einer analytischen Kennlinie aus Messpunkten können zwei grundsätzlich verschiedene Ansätze verfolgt werden (vgl. Abb. 2.1). Interpolation: Liegen nur wenige Messwerte ohne überlagerte Störungen vor, so wird man verlangen, dass die analytische Kennlinie exakt durch alle Messpunkte verläuft. Verwendet man beispielsweise Polynome p(u) zur Interpolation, so erhält man bei n Messpunkten Polynome vom Grad deg{p(u)} ≤ n − 1. Man erkennt sofort, dass eine Interpolation nur für kleine n sinnvoll ist. Für eine große Anzahl von Messwerten wird die Interpolationsfunktion sehr schnell unhandlich und weist ein stark oszillierendes Verhalten auf. Das Interpolationsproblem wird in Abschnitt 2.2 behandelt. Approximation: Liegen dagegen viele Messwerte vor oder sind diesen Messwerten Störungen überlagert, so ist die Interpolation ein unpraktischer Ansatz. Alternativ kann die Menge der Messpunkte durch eine Linearkombination geeigneter

*

*

*

* *

**

* * *

* * * * **

* *

* *

Abbildung 2.1. Kennlinie in Form von n Messpunkten und Ergebnis der Kurvenanpassung.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5_2

28

2. Kurvenanpassung

analytischer Basisfunktionen ϕi (u) approximiert werden: yˆ(u) =

m−1 

(2.1)

ai ϕi (u)

i=0

bzw. mit yˆk = yˆ(uk ) yˆk =

m−1 

ai ϕi (uk ) ,

k ∈ {0, . . . , n−1} .

(2.2)

i=0

Das entspricht einem linearen Modell der Kennlinie. Zur Bestimmung der Koeffizienten ai wird gefordert, dass der Approximationsfehler yk − yˆk möglichst klein wird. Als Gütemaß Q wird hierfür üblicherweise die Summe der Approximationsfehlerquadrate herangezogen: 2  n−1 m−1   ai ϕi (uk ) → min . (2.3) yk − Q= i=0

k=0

Der Vorteil dieser Vorgehensweise liegt in der Tatsache, dass man bereits mit einer begrenzten Anzahl m einfacher Basisfunktionen ϕi (u) die Kennlinie nachbilden kann, wobei meistens m  n gilt. Die so gewonnene analytische Kennlinie verläuft allerdings im Allgemeinen nicht exakt durch die gemessenen Punkte.

2.1 Approximation 2.1.1 Approximation mit orthonormalen Funktionensystemen Zunächst stellt sich die Frage nach den Vorteilen orthonormaler Funktionensysteme zur Signaldarstellung. Zur Verdeutlichung sei an die Vektorrechnung erinnert. Im dreidimensionalen Euklid’schen Raum IR3 wird jeder Vektor durch seine Komponenten in x-, y- und z-Richtung repräsentiert. Beispielsweise sei der folgende Vektor betrachtet: T

a = (a0 , a1 , a2 ) . Mittels der zueinander orthogonalen Einheitsvektoren ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ e1 = ⎝ 1 ⎠ , e2 = ⎝ 0 ⎠ e0 = ⎝ 0 ⎠ , 0 0 1

(2.4)

(2.5)

2.1

Approximation

29

lässt sich der Vektor a als Linearkombination der Vektoren ei darstellen: a = a0 e0 + a1 e1 + a2 e2 =

2 

a i ei .

(2.6)

i=0

Die Menge {e0 , e1 , e2 } bildet dabei eine orthonormale Basis des Vektorraumes IR3 . Sie hat die besonderen Eigenschaften, dass das Innenprodukt zwischen zwei verschiedenen Basisvektoren verschwindet – die Vektoren sind also zueinander orthogonal [4] – und dass die Norm der Basisvektoren gleich eins ist: ei , ej =

n−1 

ei,k · ej,k = δij ,

(2.7)

k=0

wobei



δij =

1 0

für i = j für i =  j

(2.8)

das Kronecker-Delta bezeichnet. Ein großer Vorteil orthonormaler Basissysteme ist die Tatsache, dass bei Hinzunahme einer neuen Dimension (aufgespannt durch den neuen Basisvektor ek ) lediglich die entsprechende Komponente ak zur Darstellung des resultierenden Vektors bestimmt werden muss, ohne dass sich dabei eine Änderung der bisherigen Komponenten ergäbe. Bei der Approximation von Messkennlinien macht man sich genau diese Eigenschaft orthonormaler Basissysteme zu Nutze. Man verwendet zur Approximation Funktionensysteme mit der Eigenschaft ϕi , ϕj =

n−1 

ϕi (uk ) · ϕ∗j (uk ) = δij .

(2.9)

k=0

Die Funktionswerte ϕi (uk ) an den Stützstellen uk liefern orthonormale, n-dimensionale Vektoren. Im Folgenden wird angenommen, dass die Stützstellen äquidistant über dem gesamten Orthogonalitätsintervall des Funktionensystems verteilt sind. Zur Bestimmung der Koeffizienten wird das Gütemaß (2.3) ⎞∗  ⎛ n−1 m−1 m−1    Q= yk − ai ϕi (uk ) ⎝yk − aj ϕj (uk )⎠ (2.10) k=0

i=0

j=0

30

2. Kurvenanpassung

mit Hilfe der Kettenregel nach den Koeffizienten aj abgeleitet:   n−1 m−1   ∂Q = −2 ai ϕi (uk ) ϕ∗j (uk ) yk − ∂aj i=0 k=0 n−1  n−1   m−1  ! ∗ ∗ = −2 yk ϕj (uk ) − ai ϕi (uk ) ϕj (uk ) = 0 ,

yk ϕ∗j (uk ) −

m−1 

ai

i=0

k=0

(2.12)

k=0 i=0

k=0 n−1 

(2.11)

n−1 

ϕi (uk ) ϕ∗j (uk ) = 0

k=0



(2.13)



δij



aj =

n−1 

yk ϕ∗j (uk ) .

(2.14)

k=0

Man erkennt sofort den Nutzen orthogonaler Funktionen. Die Koeffizienten aj zur Darstellung der Kennlinie hängen nur von der zugehörigen Basisfunktion ϕj (uk ) ab. Werden weitere Funktionen ϕi zur Approximation herangezogen, so bleiben die bisher berechneten Koeffizienten unverändert. Der quadratische Fehler zwischen den Messpunkten und der approximierten Kennlinie berechnet sich zu ⎞∗ ⎛  n−1 m−1 m−1    Q= ai ϕi (uk ) ⎝yk − aj ϕj (uk )⎠ (2.15) yk − i=0

k=0

=

n−1 

yk2 −

i=0

k=0

+

m−1 

m−1  m−1 

ai

j=0 n−1  k=0

ai a∗j

i=0 j=0

ϕi (uk ) yk∗ −

n−1  k=0





a∗ i

m−1  j=0

ϕi (uk ) ϕ∗j (uk ) , 

a∗j

n−1  k=0

ϕ∗j (uk ) yk  aj

 (2.16)



δij

Q=

n−1  k=0

yk2 −

m−1 

|ai |2 .

(2.17)

i=0

Mit wachsendem Grad m der Funktionenreihe wird der Approximationsfehler geringer. Mit Q ≥ 0 folgt die bekannte Bessel’sche Ungleichung [4].

2.1

Approximation

31

2.1.1.1 Approximation mit der Fourier-Reihe Nun stellt sich die Frage, welche Funktionensysteme die Orthogonalitätsbedingung (2.9) erfüllen. Am bekanntesten sind die Funktionen der Fourier-Reihe:   1 u − ua Fi (u) = √ · exp j2πi . (2.18) ue − ua n Diese Funktionen bilden im Messbereich [ua , ue ] bei n äquidistanten Stützstellen im Abstand Δu (vgl. Abb. 2.2) ein orthonormales Funktionensystem: Fi (uk ), Fj (uk ) =

    n−1 1 uk −ua uk −ua exp j2πi exp −j2πj . n ue −ua ue −ua

(2.19)

k=0

Abbildung 2.2. Stützstellenabstände einer gemessenen Kennlinie.

Mit dem Stützstellenabstand Δu und der Intervallbreite (ue − ua ) = n · Δu gilt uk = k · Δu + ua



uk − u a k = . ue − ua n

(2.20)

Damit lässt sich das Innenprodukt schreiben und die Orthogonalität zeigen: Fi (uk ), Fj (uk ) =

  n−1 1 k = δij . exp j2π(i − j) n n

~

k=0

Abbildung 2.3. Veranschaulichung der Orthogonalität der Fourier-Funktionen.

(2.21)

32

2. Kurvenanpassung

Zur Veranschaulichung von (2.21) hilft ein Zeigerdiagramm in der komplexen Ebene (Abb. 2.3). Für i = j ergibt sich ein geschlossener Polygonzug, d. h. die Summe der Zeiger verschwindet. Nur für i = j ergibt sich ein Wert ungleich null. Die Approximation einer Messkennlinie mit den Funktionen aus (2.18) entspricht gerade der Fourier-Reihe bei periodischen Funktionen.

2.1.1.2 Approximation mit Walsh-Funktionen Ein Nachteil der Verwendung der Fourier-Reihe ist die notwendige Rechnung mit komplexen Exponentialfunktionen. Geradezu ideal für die Implementierung im Rechner ist hingegen das orthonormale System der Walsh-Funktionen wal(i, u) geeignet. Sie sind im Intervall [0; 1] definiert und nehmen lediglich die Funktionswerte +1 und −1 an. Abbildung 2.4 zeigt einige Funktionen dieses Funktionensystems. Von ihrer Orthogonalität überzeugt man sich leicht durch Summenbildung über äquidistant verteilte Stützstellen. Die Berechnung der Koeffizienten aj nach (2.14) reduziert sich bei diesem Basissystem auf eine einfache Summe über die Funktionswerte yi . Für das Rechnen mit Walsh-Funktionen und die Erzeugung beliebiger Basisfunktionen wal(i, u) sei auf die entsprechende Fachliteratur verwiesen [2]. An dieser Stelle soll noch auf eine Eigenschaft hingewiesen werden. Wie man aus Abb. 2.4 erkennt, sind die i Nulldurchgänge der Walsh-Funktionen nicht gleichmäßig über das Intervall verteilt. Um dennoch einen Frequenzbegriff wie bei Sinusund Cosinusfunktionen zu erhalten, kann man die Häufigkeit der Nulldurchgänge

Abbildung 2.4. Walsh-Funktionen.

2.1

Approximation

33

im Intervall heranziehen. Damit gelangt man zur verallgemeinerten Frequenz, die in Kapitel 8 eingeführt wird.

2.1.2 Least-Squares-Schätzer In vielen Anwendungen ist eine Approximation mit nicht orthogonalen Basisfunktionen ϕi (u) gewünscht. Zur Minimierung der quadratischen Summe der Approximationsfehler (2.3) kann der Least-Squares-Schätzer (kurz: LS-Schätzer) herangezogen werden. Die Summe der Approximationsfehlerquadrate lautet in Vektorschreibweise Q=

n−1 

ˆ )T (y − y ˆ) . (yk − yˆk )2 = (y − y

(2.22)

k=0

Es wird folgender Approximationsansatz für n Messpunkte verwendet: ⎤ ⎤ ⎡ ϕ0 (u0 ) · · · ϕm−1 (u0 ) yˆ0 ⎥ ⎥ ⎢ ⎢ .. .. .. ˆ = ⎣ ... ⎦ = ⎣ y ⎦ . . . ϕ0 (un−1 ) · · · ϕm−1 (un−1 ) yˆn−1 ⎡



⎤ a0 ⎢ ⎥ · ⎣ ... ⎦ = Φ a . am−1

(2.23)

Einsetzen von (2.23) in (2.22) ergibt Q = (y − Φ a)T (y − Φ a) = yT y − 2aT ΦT y + aT ΦT Φ a .

(2.24)

Zur Bestimmung von a wird das Gütemaß Q minimiert: dQ = −2ΦT y + 2ΦT Φ a = 0 , da

(2.25)

woraus für den Parametervektor a = (ΦT Φ)−1 ΦT y

(2.26)

resultiert. Der gesuchte Parametervektor a berechnet sich somit aus dem Produkt der nach E. H. Moore und R. Penrose benannten Pseudoinversen (ΦT Φ)−1 ΦT von Φ und dem Messpunktevektor y. Der LS-Schätzer ist im Kontext der Parameterschätzung von großer praktischer Bedeutung. Er wird oft benutzt, um aus stark verrauschten Messungen Kennlinienfunktionen zu bestimmen, was auch als Regressionsanalyse bezeichnet wird (Abschnitt 2.1.3). Der LS-Schätzer kann damit einerseits als ein Optimalfilter angesehen werden (Abschnitt 6.7), welches Vorwissen über die herauszufilternde Funktion explizit einbezieht – z. B. dass sie als Polynom 2. Grades darstellbar ist. Dieses Vorwissen bezeichnet man als Signalmodell und bestimmt den Aufbau der Matrix Φ bzw. die Wahl der Basisfunktionen ϕi (u). Andererseits wird ein funktionaler Zusammenhang zwischen Abszissen- und Ordinatenvariablen hergestellt. Damit ist das Verfahren auch zur Extrapolation geeig-

34

2. Kurvenanpassung

net, etwa um zukünftige Funktionswerte eines Zeitsignals vorherzusagen (Kapitel 9). Einsatz findet der LS-Schätzer in der statistischen Prozessüberwachung, die in Abschnitt 4.5.3 behandelt wird. Abschnitt 8.2.8 zeigt ein weiteres Anwendungsbeispiel des LS-Schätzers im Kontext der digitalen Drehzahlmessung, um mechanische Fehler des Sensorrades zu kompensieren.

2.1.3 Regressionsanalyse In der Statistik dient die Regressionsanalyse allgemein dazu, einen funktionalen Zusammenhang zwischen Variablen herzustellen. Praktisch werden hierfür häufig Polynome zusammen mit der in Abschnitt 2.1.2 behandelten Methode der kleinsten Quadrate verwendet, aber es können genauso auch andere Modelle und Optimierungsziele zum Einsatz kommen. Im Folgenden wird nur auf den Sonderfall der linearen Regression eingegangen.

* * * * * * * * * * * ** *

*

Abbildung 2.5. Lineare Regression.

Eine in der Praxis häufig auftretende Aufgabe ist die Suche nach einer Geraden durch eine Menge von Messpunkten (Abb. 2.5). Die Gerade habe die Form yˆ(u) = a1 u + a0 .

(2.27)

Die unbekannten Parameter a1 und a0 werden durch Minimierung der Fehlerquadrate gemäß (2.3) bestimmt. Mit der Gütefunktion Q=

n−1  k=0

(yk − a1 uk − a0 )2

(2.28)

2.1

Approximation

35

können die Parameter durch Differentiation bestimmt werden:  dQ = −2 uk (yk − a1 uk − a0 ) , da1

(2.29)

 dQ = −2 (yk − a1 uk − a0 ) . da0

(2.30)

n−1

k=0

n−1

k=0

Durch Nullsetzen der beiden Ableitungen gelangt man schließlich zu folgendem Gleichungssystem a1

n−1 

u2k + a0

k=0

a1

n−1 

n−1 

uk =

k=0

(2.31)

u k yk ,

k=0

u k + n a0 =

k=0

n−1 

n−1 

(2.32)

yk

k=0

und erhält durch Auflösen die gesuchten Parameter der Regressionsgeraden: a0 =

n−1 n−1 1 1 yk − a 1 · uk , n n k=0

n· a1 =

n−1 

u k yk −

k=0



(2.33)

k=0

n−1  k=0

n−1 

uk

k=0

u2k



n−1 

n−1  k=0 2

yk .

(2.34)

uk

k=0

Die Berechnung der Parameter mit dem LS-Schätzer (2.26) führt auf das gleiche Ergebnis. Das zugehörige Signalmodell lautet für eine Geradengleichung: ⎤ ⎡ ⎤ ⎡   1 u0 yˆ0 a0 ⎥ ⎢ .. ⎥ ⎢ .. . .. ⎦ · ˆ=⎣ . ⎦=⎣ . = Φa. (2.35) y a1 yˆn−1 1 un−1 Die Übereinstimmung von (2.33) und (2.34) mit dem LS-Schätzer möge der Leser als Übung durchführen. Es können natürlich auch Polynome höheren Grades für die Regression verwendet werden. Im Gegensatz zur Approximation mit orthonormalen Funktionen müssen bei der Regressionsanalyse alle Koeffizienten ai neu berechnet werden, wenn die Ordnung des Regressionspolynoms erhöht wird.

36

2. Kurvenanpassung

Abschließend soll noch auf einen Zusammenhang hingewiesen werden. Die Ergebnisgleichungen (2.33) und (2.34) der linearen Regression enthalten Terme der Form n−1 2 n−1 n−1   1  2 uk bzw. n uk − uk . (2.36) n k=0

k=0

k=0

Wie später in Kapitel 4 gezeigt wird, handelt es sich hierbei um den Mittelwert und die mit dem Faktor (n − 1)/n gewichtete Varianz der Größe u.

2.2 Interpolation Ist eine experimentelle Kennlinie nur durch wenige Punkten gegeben, so wird man oft verlangen, dass die zu ermittelnde Funktion die Werte (uk , yk ) exakt wiedergibt und dass sie zwischen diesen Stützstellen einen glatten Verlauf aufweist. Diese Aufgabenstellung führt zum klassischen Interpolationsproblem.

2.2.1 Polynominterpolation Zur Kennliniendarstellung wird meist ein Polynomansatz in der Messgröße u gewählt: yˆ(u) =

n−1 

ai ui = aT p

(2.37)

i=0

mit a = (a0 , . . . , an−1 )T und p = (1, u, . . . , un−1 )T . Zur Bestimmung der n Koeffizienten ai stehen n Gleichungen in den Stützstellen zur Verfügung: yk (uk ) =

n−1 

ai uik ,

k ∈ {0, . . . , n − 1} .

(2.38)

i=0

Die n Gleichungen lassen sich in Matrixschreibweise angeben: ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 1 u0 u20 · · · un−1 a0 y0 0 ⎥ ⎢ ⎥ ⎢ n−1 ⎥ ⎢ ⎢ y1 ⎥ ⎢ 1 u1 u21 · · · u1 ⎥ ⎢ a1 ⎥ ⎥ ⎢ ⎥ ⎢ ⎢ y=⎢ . ⎥=⎢. . .. . . . ⎥·⎢ . ⎥ ⎥ = V·a, . .. ⎦ ⎣ .. ⎦ . ⎣ .. ⎦ ⎣ .. .. yn−1 1 un−1 u2n−1 · · · un−1 an−1 n−1

(2.39)

wobei y den Messvektor und V die Vandermonde-Matrix bezeichnen. Um die Gleichung zu lösen, muss die Vandermonde-Matrix invertiert werden. Dies setzt voraus, dass ihre Determinante |V| ungleich null ist, was der Fall ist, wenn die Stützstellen ui paarweise verschieden sind. Die Matrix V hat den Rang r = n. Ihre Determinante lässt sich geschlossen berechnen, indem man sie rekursiv in Unterdeterminanten auflöst. Dazu multipliziert man

2.2

Interpolation

37

jeweils die vorherige Spalte mit un−r und subtrahiert sie von der gerade betrachteten Spalte: r=n:  1 0    1 u1 −u0 |V| =  . ..  .. .   1 un−1 −u0

··· ··· .. . ···

  0   n−1 n−2 u1 −u1 · u0   ..   .  n−1 n−2 un−1 −un−1 · u0 

(2.40) 2. Spalte − 1. Spalte × u0 3. Spalte − 2. Spalte × u0 . .. . n. Sp. − (n−1). Sp. × u0

(2.41)

Die Determinante wird nach der ersten Zeile entwickelt, bei der nur das erste Element ungleich null ist. Die Terme (uj − u0 ) werden aus den Zeilen herausgezogen (j = 1, . . . , n − 1): r =n−1:

  1 u1 u21 · · · un−2 1   .. .. . . .. |V| = (u1 − u0 ) (u2 − u0 ) · · · (un−1 − u0 )  ... . . . .  n−2 1 u 2 n−1 un−1 · · · un−1

    .  

(2.42) (2.43)

Das Verfahren wird nun mit r = n − 1 und Multiplikation der Spalten mit u1 wiederholt usw. Für die Determinante erhält man schließlich: |V| = (u1 − u0 ) (u2 − u0 ) (u3 − u0 ) · · · (un−1 − u0 ) × (u2 − u1 ) (u3 − u1 ) · · · (un−1 − u1 ) × (u3 − u2 ) · · · (un−1 − u2 ) × .. . (un−1 − un−2 ) .

(2.44)

Die Determinante berechnet sich somit aus dem Produkt aller möglicher Differenzen zwischen den Stützstellen. Die Inversion von V ist genau dann gut konditioniert (d. h. numerisch gut berechenbar), wenn es kein sehr eng beieinander liegendes Stützstellenpaar gibt. Die Koeffizienten berechnen sich dann mittels a = V−1 y ,

(2.45)

wodurch die Interpolationsgleichung (2.37) folgende Form annimmt: yˆ = aT p = pT a = pT V−1 y .

(2.46)

2.2.2 Interpolation durch Lagrange-Polynome Der Aufwand zur Lösung des Gleichungssystems (2.39) ist vergleichsweise groß. Anstelle des Polynomansatzes (2.37) arbeitet man daher in der Praxis oft mit sogenannten Lagrange-Polynomen i (u). Dank einer komplexeren Basis bestehend aus echten Polynomen anstelle der in (2.37) verwendeten Monome ui dürfen Lagrange-Polynome

38

2. Kurvenanpassung

direkt mit den Messwerten yi gewichtet werden: yˆ =

n−1 

yi i (u)

(2.47)

i=0

oder, in Vektorschreibweise, yˆ = T y

(2.48)

mit  = ( 0 (u), . . . , n−1 (u))T . Dadurch ist keine Berechnung weiterer Koeffizienten erforderlich. Aus einem Vergleich von (2.46) und (2.48) sieht man, dass sich die Lagrange-Polynome gerade aus der invertierten Vandermonde-Matrix ergeben: T  (2.49)  = V−1 p . Die Lagrange-Polynome sind damit i (u) =

(u − u0 ) · · · (u − ui−1 )(u − ui+1 ) · · · (u − un−1 ) . (ui − u0 ) · · · (ui − ui−1 )(ui − ui+1 ) · · · (ui − un−1 )

(2.50)

Aus ihrer Eigenschaft i (uj ) = δij folgt mit (2.47): yˆ(uj ) =

n−1 

yi i (uj ) = yj .

(2.51)

i=0

Die Stützstellen eines Lagrange-Polynoms werden somit exakt interpoliert. Beispiel 2.1 (Lagrange-Interpolation mit drei Stützstellen): Eine Kennlinie sei durch

drei äquidistante Stützstellen ua , um und ue gegeben (Abb. 2.6): um − ua = ue − um = h .

(2.52)

Die Lagrange-Polynome i (u) sind damit 0 (u) =

1 (u − um ) (u − ue ) = 2 (u − um ) (u − ue ) , (ua − um ) (ua − ue ) 2h

(2.53)

1 (u) =

1 (u − ua ) (u − ue ) = − 2 (u − ua ) (u − ue ) , (um − ua ) (um − ue ) h

(2.54)

2 (u) =

1 (u − ua ) (u − um ) = 2 (u − ua ) (u − um ) . (ue − ua ) (ue − um ) 2h

(2.55)

2.2

Interpolation

39

Abbildung 2.6. Skizze der zu interpolierenden Kurve.

Einsetzen der i (u) in (2.47) ergibt die Interpolationsgleichung: yˆ =

2 

yi i (u)

(2.56)

i=0

=

ya ym (u − um )(u − ue ) − 2 (u − ua )(u − ue ) 2h2 h ye + 2 (u − ua )(u − um ) . 2h

Mit ua = 0, ya = 0 sowie um = h, ue = 2h erhält man    y 2 ym ye ym e yˆ = u − + u2 − 2 . h 2h 2 h2 h

(2.57)

(2.58)

Liegen die drei Stützstellen auf einer Geraden, d. h. ist ym = ye /2, so wird mit yˆ = u ·

ye 2h

(2.59)

die resultierende Kurve linear.

2.2.3 Interpolation durch Newton-Polynome Für die Interpolation der Punkte (ui , yi ) der Messkennlinie durch Newton-Polynome wird der folgende Ansatz formuliert: yˆ = a0 + a1 (u − u0 ) + a2 (u − u0 ) (u − u1 ) + · · · + an−1 (u − u0 ) (u − u1 ) · · · (u − un−2 ) .

(2.60)

40

2. Kurvenanpassung

Die Koeffizienten werden rekursiv aus den Interpolationsbedingungen in den Stützstellen berechnet: y 0 = a0 ,

(2.61)

y1 = a0 + a1 (u1 − u0 ) , .. .

(2.62)

yn−1 = a0 + a1 (un−1 − u0 ) + a2 (un−1 − u0 ) (un−1 − u1 ) + · · · + an−1 (un−1 − u0 ) (un−1 − u1 ) · · · (un−1 − un−2 ) .

(2.63)

Damit weisen Newton-Polynome eine leichtere Erweiterbarkeit beim Hinzufügen von Stützstellen als Lagrange-Polynome auf. Außerdem sind die Basispolynome einfacher. Zu ihrer einfachen Berechnung werden Differenzen von Funktionen eingeführt. Definition 2.1: Differenzen einer Funktion

Die erste Differenz einer diskreten Funktion yi ist wie folgt definiert: Δyi = yi+1 − yi ,

(2.64)

wobei Δ als Differenzenoperator bezeichnet wird. Für den Differenzenoperator gelten das Distributivgesetz sowie das Kommutativgesetz in Bezug auf eine Konstante. Damit lassen sich auch höhere Differenzen Δj yi = Δj−1 (Δyi ) = Δj−1 yi+1 − Δj−1 yi rekursiv definieren.

(2.65) 

Exemplarisch soll die zweite Differenz von yi berechnet werden. Mit (2.65) und (2.64) ergibt sich für j = 2: Δ2 yi = Δ(Δyi ) = Δ(yi+1 − yi ) = Δyi+1 − Δyi = yi+2 − 2yi+1 + yi .

(2.66)

Satz 2.1: Differenzenoperator

Für den Differenzenoperator Δ gilt die folgende Rechenregel: yi = (1 + Δ)i y0 .

(2.67) 

Beweis 2.1 (Differenzenoperator): Der Beweis erfolgt durch vollständige Induktion.

Der Induktionsanfang (i = 1) lautet: y1 = (1 + Δ) y0 = y0 + Δy0 = y0 + y1 − y0 = y1 .

(2.68)

2.2

Interpolation

41

Für den Induktionsschluss von i auf (i + 1) erhält man: yi+1 = (1 + Δ)i+1 y0 = (1 + Δ) (1 + Δ)i y0

 

(2.69)

= (1 + Δ) yi = yi + yi+1 − yi = yi+1 .

(2.70)

yi

Durch Ausmultiplizieren der rechten Seite von (2.67) mit Hilfe der allgemeinen binomischen Formel ergibt sich: i i (i − 1) 2 Δy0 + Δ y0 + · · · 1! 2! i! i(i − 1) · · · (i − j + 1) j Δ y0 + · · · + Δ i y0 . + j! i!

yi = y0 +

(2.71)

Aus dem Ansatz (2.61)–(2.63) folgt bei konstantem Stützstellenabstand h: y 0 = a0 ,

(2.72)

y1 = a0 + a 1 h , .. .

(2.73)

yi = a0 + a1 ih + · · · + aj i(i−1) · · · (i−j +1) hj + . . . + ai i! hi , .. .

(2.74)

yn−1 = a0 + a1 (n−1) h + a2 (n−1) (n−2) h2 + · · · + an−1 (n−1)! hn−1 .

(2.75)

Vergleicht man (2.74) mit den Differenzen aus (2.71), so erhält man für die Koeffizienten vom Grad j jeweils aj · i (i − 1) · · · (i − j + 1) · hj = i (i − 1) · · · (i − j + 1) · Δj y0 /j! .

(2.76)

Die Koeffizienten des Newton-Polynoms lassen sich damit aus den Differenzen wie folgt berechnen: aj =

Δj y0 . j! hj

(2.77)

Mit den Koeffizienten wird die Newton’sche Interpolationsformel für äquidistante Stützstellen zu Δy0 Δ 2 y0 (u − u0 ) + (u − u0 )(u − u1 ) + · · · h 2h2 Δn−1 y0 + (u − u0 ) · · · (u − un−2 ) . (n − 1)! hn−1

yˆ = y0 +

(2.78)

42

2. Kurvenanpassung

Die höheren Differenzen Δj y0 lassen sich auf einfache Weise mit dem folgenden Differenzenschema durch fortlaufende Subtraktion berechnen: u

y

0

y0

h y1 2h y2 3h y3

Δ2 y

Δy ! ! ! !

Δy0 Δy1 Δy2

! ! !

Δ3 y

Δ2 y0 Δ2 y1

! !

Δ3 y0

Δ4 y

!

Δ 4 y0

(2.79)

Δ3 y1

2

Δ y2

Δy3

4h y4 Bei nicht äquidistanten Stützstellen lässt sich das Differenzenschema verallgemeinern, indem man die Funktionsdifferenzen durch den Stützstellenabstand teilt. Gegeben sei wieder eine Kennlinie mit drei äquidistanten Stützstellen ua , um und ue mit:

Beispiel 2.2 (Newton-Interpolation mit drei Stützstellen):

ua = 0 ,

um = h ,

ue = 2h ,

ya = 0 .

(2.80)

Aus dem Differenzenschema u

y

0

ya

h ym

Δ2 y

Δy ! !

ym − ya

!

ye − 2ym + ya

(2.81)

ye − ym

2h ye ergibt sich folgende Interpolationsfunktion: yˆ =

ye − 2ym ym u+ u (u − h) . h 2h2

(2.82)

Das Ergebnis stimmt mit dem Ergebnis der Lagrange-Interpolation (2.58) überein. Für ye = 2ym verschwindet ebenfalls das quadratische Glied.

2.2.4 Spline-Interpolation Wie eingangs erwähnt, ist die Polynominterpolation bei einer großen Anzahl von Messpunkten ungeeignet, weil man dann Interpolationspolynome hohen Grades erhält, die ein stark oszillierendes Verhalten aufweisen. Eine Alternative besteht darin,

2.2

Interpolation

43

Abbildung 2.7. Lineare Interpolation zwischen den Stützstellen.

den Teilintervallen verschiedene Polynome niedrigen Grades zuzuordnen. Das einfachste Verfahren verbindet hierbei benachbarte Messpunkte linear (Abb. 2.7). Bei n Messpunkten besteht die Interpolationsfunktion aus n − 1 Geradenstücken in den Intervallen i ∈ {0, . . . , n − 2} .

[ui , ui+1 ] ,

(2.83)

Nachteilig an dieser Methode ist die Tatsache, dass bereits die erste Ableitung der Interpolationsfunktion nicht mehr stetig ist. Zur Kennlinieninterpolation ist solch ein Ansatz nicht geeignet, weil man sich für die erste Ableitung der Messkennlinie, die der Empfindlichkeit entspricht (vgl. Abschnitt 3.1), eine stetige Funktion wünscht. Abhilfe schafft die Interpolation mit Splines. Spline-Funktionen gehen auf das mechanische Modell von dünnen Latten (engl. splines) zurück, wie sie im Schiffbau oder in der Konstruktion eingesetzt werden. Das Modell geht davon aus, dass durch die gegebenen Stützstellen eine dünne, homogene Latte gelegt sei. In den Stützstellen sei die Latte so gelagert, dass dort keine äußeren Kräfte einwirken. Die so entstehende Biegelinie der Latte soll die Lösung s(u) der Interpolationsaufgabe sein. Die aufgrund der Biegekraft in der Latte gespeicherte Energie lässt sich, abgesehen von physikalischen und geometrischen Konstanten, als das Integral über das Quadrat der Krümmung κ(u) ≈ s (u) beschreiben1 : 1 E= 2

u"n−1

(s (u)) du . 2

(2.85)

u0 1

Streng genommen ist die Krümmung durch κ(u) =

s (u) (1 + s (u)2 )3/2

(2.84)

gegeben, weshalb die Näherung κ(u) ≈ s (u) lediglich bei kleinen Steigungen s (u)2  1 zulässig ist. Dennoch liefert (2.85) auch bei Verletzung dieser Annahme meist eine gute Näherung der Biegeenergie der Latte.

44

2. Kurvenanpassung

Der stabile Arbeitspunkt eines Systems stellt sich dann ein, wenn die Energie des Systems ihr Minimum annimmt. Auf das Modell übertragen wird genau die Biegelinie s(u) angenommen, die (2.85) minimiert: u"n−1

(s (u)) du 2



(2.86)

min .

u0

Die gesuchte Spline-Funktion s(u) minimiert also obige Gleichung unter der Voraussetzung, dass s(u) mindestens einmal stetig differenzierbar ist. Aus diesen Bedingungen ergeben sich nach Lösung von (2.86) mit Hilfe der Variationsrechnung [1, 3] folgende Eigenschaften der Spline-Interpolierenden: si (ui ) = yi ,

si (ui+1 ) = yi+1 ,

si−1 (ui ) = si (ui ) ,

i ∈ {0, 1, . . . , n − 2} ,

(2.87)

i ∈ {1, 2, . . . , n − 2} ,

(2.88)

s0 (u0 ) = sn−2 (un−1 ) , s (u) = 0 ,

(2.89) u = u0 , . . . , un−1 .

(2.90)

Gleichung (2.87) ist gerade die Interpolationsbedingung. Aus (2.88) folgt, dass nicht nur die erste, sondern auch die zweite Ableitung der Interpolationsfunktion stetig ist. Wegen (2.90) ist s(u) in jedem Teilintervall ein kubisches Polynom. Die interpolierende Spline-Funktion setzt sich also stückweise aus Polynomen dritten Grades zusammen (Abb. 2.8). Man bezeichnet daher s(u) auch als kubischen Spline. Natürlich können auch Splines höherer Ordnung durch Erweiterung von (2.86) auf höhere Ableitungen erzeugt werden. Diese Erweiterung ist allerdings dann rein mathematischer Natur, ohne physikalische Motivation.

Abbildung 2.8. Interpolation mit kubischen Splines.

2.2

Interpolation

45

Berechnung der kubischen Spline-Interpolierenden Mit den Eigenschaften in (2.87) bis (2.90) kann nun die gesuchte Interpolationsfunktion s(u) konstruiert werden. Für jedes Teilintervall [ui , ui+1 ] der Länge hi = ui+1 − ui

(2.91)

wählt man als Ansatz ein allgemeines Polynom 3. Grades: si (u) = ai (u − ui )3 + bi (u − ui )2 + ci (u − ui ) + di .

(2.92)

Für den Funktionswert und die ersten beiden Ableitungen an den Enden des Intervalls – d. h. an den Stützstellen – erhält man: si (ui ) = di

= yi ,

si (ui+1 ) = ai h3i + bi h2i + ci hi + di = yi+1 , si (ui ) = ci ,

si (ui+1 ) = 6 ai hi + 2 bi

(2.94) (2.95)

si (ui+1 ) = 3 ai h2i + 2 bi hi + ci , si (ui ) = 2 bi

(2.93)

(2.96) = yi ,

(2.97)

 = yi+1 .

(2.98)

Die unbekannten Parameter ai , bi , ci und di können damit durch die gegebenen Stütz punkte yi und yi+1 sowie die noch unbekannten zweiten Ableitungen yi und yi+1 ausgedrückt werden: ai =

1 (y  − yi ) , 6hi i+1

1  y , 2 i 1 1  ci = (yi+1 − yi ) − hi (yi+1 + 2yi ) , hi 6 bi =

(2.99) (2.100) (2.101) (2.102)

di = yi .

Die unbekannten zweiten Ableitungen sollen nun aus der Bedingung für die Stetigkeit der ersten Ableitung an den inneren Stützstellen berechnet werden. Für die erste Ableitung am Intervallende ui+1 ergibt sich nach Einsetzen der Parameter ai , bi , ci si (ui+1 ) =

1 hi  (2yi+1 (yi+1 − yi ) + + yi ) . hi 6

(2.103)

Die Forderung nach Stetigkeit der ersten Ableitung an den inneren Stützstellen ergibt si (ui+1 ) = si+1 (ui+1 )

(2.104)

46

2. Kurvenanpassung

mit si+1 (ui+1 ) = ci+1 =

1 hi+1

(yi+2 − yi+1 ) −

hi+1   (yi+2 + 2yi+1 ). 6

(2.105)

Setzt man beide Gleichungen gleich und ordnet nach den unbekannten zweiten Ableitungen, so erhält man   + hi+1 yi+2 = hi yi + 2 (hi +hi+1 ) yi+1

6 6 (yi+2 −yi+1 ) − (yi+1 −yi ) . hi+1 hi

(2.106)

 = 0, so resultieren (n − 2) lineare GleichunBerücksichtigt man (2.89), also y0 = yn−1  : gen für die unbekannten zweiten Ableitungen y1 , y2 , . . . , yn−2 ⎤ ⎡ ⎡ ⎤ y1 2(h0 +h1 ) h1 0 ··· 0 ⎥ ⎢  ⎥ ⎢ h1 2(h1 +h2 ) h2 0 · · · 0 ⎥ ⎢ y2 ⎥ ⎢ ⎥·⎢ . ⎥ ⎢ .. .. .. ⎥ ⎢ . ⎥ ⎢ . . . ⎦ ⎣ . ⎦ ⎣

0 ⎡ ⎢ ⎢ ⎢ =⎢ ⎢ ⎢ ⎣

···

0 hn−3 2(hn−3 +hn−2 ) ⎤ 6 6 (y − y ) − (y − y ) 1 0 h1 2 h0 1 ⎥ ⎥ 6 6 ⎥ (y − y ) − (y − y ) 3 2 2 1 h2 h1 ⎥. .. ⎥ ⎥ . ⎦ 6 hn−2 (yn−1

0

− yn−2 ) −

6 hn−3 (yn−2

 yn−2

(2.107)

− yn−3 )

Der Rechenweg zur Bestimmung der kubischen Spline-Interpolierenden s(u) ist nun naheliegend. Aus den gegebenen Stützstellen (ui , yi ), i ∈ {0, . . . , n − 1}, werden die Längen der Intervalle hi bestimmt und das Gleichungssystem (2.107) zur Bestimmung der yi aufgestellt. Nach dessen Lösung werden nach (2.99)–(2.102) die Koeffizienten ai , bi , ci und di der zum Teilintervall [ui , ui+1 ] gehörenden kubischen Polynome si (u) bestimmt. Beispiel 2.3 (Interpolation der Sinusfunktion): Im Folgenden soll die Funktion sin( π2 u)

im Intervall [−2; 2] sowohl durch Lagrange-Polynome als auch durch SplineFunktionen interpoliert werden. Die Stützstellen sind u = [ −2, −1, 0, 1, 2] , y=[

0, −1, 0, 1, 0] .

(2.108)

Die Lagrange-Interpolation liefert das Polynom 1 4 yˆL = − u3 + u , 3 3

−1 ≤ u < 1 .

(2.109)

2.2

Interpolation

47

1

-2

-1,5

-1

-0,5

0,5

1

1,5

2

-1 Abbildung 2.9. Vergleich von Spline- und Lagrange-Interpolation.

Mit (2.107) erhält man für die zweiten Ableitungen der Spline-Interpolation y = [0, +3, 0, −3, 0] und gelangt damit zu folgender Interpolationsfunktion: ⎧ 1 3 9 ⎪ ⎪ u + 3u2 + u + 1 für u < −1 , ⎪ ⎪ 2 2 ⎨ 1 3 3 yˆs (u) = s(u) = − u + u für −1 ≤ u < 1 , ⎪ 2 2 ⎪ ⎪ 1 9 ⎪ ⎩ u3 − 3u2 + u − 1 für u ≥ 1 . 2 2

(2.110)

(2.111)

Abbildung 2.9 zeigt das Interpolationsergebnis. Man erkennt, dass die Spline-Interpolation in diesem Fall das bessere Ergebnis liefert.

2.2.5 Systemtheoretische Deutung der Interpolation Bei äquidistanten Stützstellen lässt sich die zu interpolierende Funktion durch eine Multiplikation einer kontinuierlichen Funktion y(u) mit einer Impulsreihe ausdrücken [4]: y∗ (u) = y(u) ·

∞ 

δ(u − n Δu) ,

(2.112)

n=−∞

wobei Δu den Stützstellenabstand bezeichnet. Durch die Multiplikation mit der Impulsreihe verschwindet die Abtastfunktion y∗ (u) für u = n Δu, n ∈ Z. Bestimmte Interpolationsverfahren können als Faltung des diskreten Signals y∗ (u) mit einem linearen, verschiebungsinvarianten Interpolationsfilter mit der Impulsantwort i(u)

48

2. Kurvenanpassung Tabelle 2.1. Vergleich von Interpolationsarten.

Interpolationsart

Ordnung

Nächster-Nachbar-Interpolation

0

Lineare Interpolation

1

Ideale Interpolation



dargestellt werden:   ∞  δ(u − n Δu) ∗ i(u) yˆ(u) = y(u)

i(u)  u rect Δu  u Λ Δu  u sinc Δu

I(f ) Δu sinc(f Δu) Δu sinc2 (f Δu) Δu rect(f Δu)

(2.113)

n=−∞

◦ •

  ∞  k 1 · I(f ) . Y f− Yˆ (f ) = Δu Δu 

(2.114)

k=−∞

Die Faltung des Abtastsignals y∗ (u) mit der Impulsantwort i(u) geht dann im Frequenzbereich in eine Multiplikation des periodisch fortgesetzten Spektrums mit der Übertragungsfunktion I(f ) des Interpolationsfilters über. Weist das Interpolationsfilter I(f ) eine geeignete Tiefpasscharakteristik auf, so kann durch die Multiplikation das kontinuierliche Signal rekonstruiert werden (vgl. Abschnitt 7.1). Tabelle 2.1 zeigt eine Übersicht einfacher Interpolationsarten zusammen mit ihrer jeweiligen Impulsantwort und Übertragungsfunktion. Dabei sind die Rechteck-, die Dreieck- und die Sinc-Funktion wie folgt definiert: x 1 für |x| < B2 = , (2.115) rB (x) = rect B 0 sonst x   x x x 1 −   für |x| < B B Λ , (2.116) = rect ∗ rect = B B B 0 sonst sinc(x) =

sin(πx) . πx

(2.117)

2.3 Kennfeldinterpolation In den Abschnitten 2.1 und 2.2 wurde eine analytische Kennliniendarstellung aus Messpunkten bestimmt. Dies geschah bei der Auslegung des Messsystems – und

2.3

Kennfeldinterpolation

49

damit vor der eigentlichen Messung. Wenn die physikalische Kennlinie des Messsystems eine nichtlineare Funktion einer unabhängigen Messgröße u und einer messbaren systematischen Störgröße z ist, kann man die Ausgangsgröße y in jedem Messvorgang durch eine zweidimensionale Interpolation berechnen. Dabei wird der bekannte Einfluss der Störgröße z auf die Ausgangsgröße kompensiert. Dazu werden die zuvor bestimmten Kennfeldwerte y in den äquidistanten Stützstellen (ui , zj ) messtechnisch erfasst und abgespeichert. Die Zwischenwerte in den Stützstellenintervallen werden für feiner aufgelöste Eingangsgrößen interpoliert. Zur Herleitung der Interpolationsvorschrift auf der Grundlage von Polynomen muss (2.37) auf zwei Dimensionen erweitert werden: yˆ(u, z) =

n−1  n−1 

aij ui z j .

(2.118)

i=0 j=0

Alternativ darf bei Polynomen 1. Grades die Ausgangsgröße y an der Stelle (ui , zj ) in eine Taylor-Reihe entwickelt werden, die nach den linearen Gliedern abgebrochen wird. Zur besseren Übersicht wird die folgende verkürzte Schreibweise verwendet:  ∂f (u, z)  ∂f (ui , zj ) . → (2.119) ∂u ui ,zj ∂u Es ergibt sich y(u, z) = f (ui + Δu, zj + Δz) ≈ f (ui , zj ) +

∂f ∂f ∂2f (ui , zj ) Δu + (ui , zj ) Δz + (ui , zj ) Δu Δz . ∂u ∂z ∂u ∂z

(2.120) (2.121)

Durch Approximation der Ableitungen durch Differenzenquotienten folgt: y(u, z) ≈ y(ui , zj ) +

Δy(ui ) Δy(zj ) Δ2 y(ui , zj ) Δu + Δz + Δu Δz . Δui Δzj Δui Δzj

(2.122)

Beispiel 2.4 (Bilineare Interpolation): Die Näherung (2.122) entspricht der sogenannten

bilinearen Interpolation. Durch Einführung der Abkürzungen ykl = y(ui+k , zj+l ) lassen sich die Differenzen in (2.122) wie folgt schreiben: Δy(ui ) = y10 − y00 ,

Δy(zj ) = y01 − y00 ,

Δ2 y(ui , zj ) = y11 − y10 − y01 + y00 .

(2.123) (2.124)

Bei normierten Stützstellenweiten Δui = Δzj = 1 ergibt sich schließlich: y(u, z) ≈ y00 + (y10 − y00 ) Δu + (y01 − y00 ) Δz + (y11 − y10 − y01 + y00 ) Δu Δz

(2.125)

50

2. Kurvenanpassung

= y00 (1 − Δu) (1 − Δz) + y10 Δu (1 − Δz) + y01 (1 − Δu) Δz + y11 Δu Δz .

(2.126)

Abbildung 2.10 veranschaulicht die bilineare Interpolation.

Abbildung 2.10. Bilineare Interpolation.

Rechnergestützte Kennfeldberechnung Neben der allgemeinen Darstellung der Kennfeldinterpolation interessiert ferner eine günstige Darstellung für die Implementierung auf einem Rechner. Hierbei müssen häufig nicht beliebige Zwischenwerte interpoliert werden, sondern man beschränkt sich auf ein festes Raster der Breite qu bzw. qz zwischen den Stützstellen. Mit einer Rasterung des Intervalls in Zweierpotenzen, Δui = ui+1 − ui = 2r qu ,

Δzj = zj+1 − zj = 2r qz ,

(2.127)

und der Annahme, dass die Intervallbreiten beider unabhängiger Variabler u und z die gleiche Auflösung 2r bei vorgegebener Quantisierung qu , qz besitzen, lässt sich die Approximation (2.122) folgendermaßen darstellen: y(ui+1 , zj ) − y(ui , zj ) Δu y(ui , zj+1 ) − y(ui , zj ) Δz + 2r qu 2r qz y(ui+1 , zj+1 ) − y(ui , zj+1 ) − y(ui+1 , zj ) + y(ui , zj ) ΔuΔz + . (2.128) 22r qu qz

y(u, z) ≈ y(ui , zj ) +

2.4

Literatur

Durch Ordnen der Summanden nach den Stützstellenelementen ergibt sich ' ( 1 Δu 1 Δz 1 Δu Δz − r + 2r · y(u, z) = y(ui , zj ) 1 − r 2 qu 2 qz 2 qu qz ( ' 1 Δu 1 Δu Δz − 2r + y(ui+1 , zj ) r 2 qu 2 qu qz ' ( 1 Δz 1 Δu Δz 1 Δu Δz − 2r . + y(ui+1 , zj+1 ) 2r + y(ui , zj+1 ) r 2 qz 2 qu qz 2 qu q z Ausklammern des Faktors 22r führt auf '    1 Δu Δz Δu Δz r r y(u, z) = 2r y(ui , zj ) 2 − 2 − + y(ui+1 , zj+1 ) 2 qu qz qu qz     ( Δu Δz Δu Δz r r + y(ui+1 , zj ) 2 − + y(ui , zj+1 ) 2 − . qu qz qu qz

51

(2.129)

(2.130)

In Summenschreibweise ergibt sich die Form 1 1 1  km,n · y(ui+m , zj+n ) . y(u, z) = 2r · 2 m=0 n=0

(2.131)

Man erhält als Interpolationsfunktion y(u, z) eine gewichtete Mittelwertbildung, bei der die Funktionsamplituden y(ui+m , zj+n ) an den Ecken des Intervallquadrats mit dem Produkt    m Δu n Δz km,n = (m − 1) 2r + (−1) (n − 1) 2r + (−1) (2.132) qu qz der gegenüberliegenden Teilintervalle gewichtet werden (siehe Abb. 2.11). Die Funktionsamplitude y(ui , zj+1 ) wird beispielsweise mit    Δz (2r qu − Δu) Δz Δu − = · k0,1 = −2r + qu qz qu qz

(2.133)

gewichtet, d. h. mit dem Produkt der Teilintervalle (ui+1 −Δu) · Δz. Je näher die Interpolationsstelle (u, z) an eine der vorab gemessenen Stützstellen an den Intervallgrenzen (ui+m , zj+n ) heranrückt, desto stärker geht diese in das Interpolationsergebnis ein. Wegen der linearen Interpolation im Intervall weist das Interpolationskennfeld an den Intervallgrenzen Unstetigkeiten in der Steigung auf. Die Summe der Koeffizienten ist begrenzt auf   1  1     Δu Δz Δu Δz   km,n  = 22r − 2r − 2r +2    qu qz qu qz m=0 n=0  Δu Δu Δz Δz Δu Δz  = 22r . + 2r − + 2r − (2.134) qu q u qz qz q u qz 

52

2. Kurvenanpassung

Abbildung 2.11. Interpolation in einem Intervall.

2.4 Literatur [1] M. Giaquinta und S. Hildebrandt. Calculus of variations Vol. 1 and 2. Springer, Berlin, Heidelberg, New York, 1996. [2] F. H. Harmuth. Transmission of information by orthogonal functions. Springer, Berlin, Heidelberg, New York, 1972. [3] K. Meyberg und P. Vachenauer. Höhere Mathematik 2. Springer, Berlin, Heidelberg, New York, 4. Auflage, 2001. [4] F. Puente León und H. Jäkel. Signale und Systeme. De Gruyter Oldenbourg, Berlin, 7. Auflage, 2019.

Kapitel 3 Stationäres Verhalten von Messsystemen

3

3

3

¨ Stationares Verhalten von Messsystemen

¨ Messkennlinie und deren Fehler . . . 3.1 Stationare 3.1.1 Ideale und reale Messkennlinie . . . . . 3.1.2 Abgleich der Messkennlinie . . . . . . . 3.1.3 Kennlinienfehler bei realer Kennlinie . . 3.1.3.1 Relativer Kennlinienfehler . . . 3.1.3.2 Hysterese und Umkehrspanne ¨ 3.1.4 Abschatzung des Kennlinienfehlers . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

55 55 57 59 59 60 61

3.2 Kennlinienfehler unter Normalbedingungen . . . . . . 3.2.1 Herabsetzen des Messbereichs . . . . . . . . 3.2.2 Reihenschaltung zweier nichtlinearer Glieder 3.2.3 Wahl des gunstigsten Messbereichs . . . . . ¨ 3.2.4 Differenzmethode . . . . . . . . . . . . . . . . 3.2.5 Gegenkopplung . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

65 65 67 71 76 82

. . . . . . . .

86 86

. . . . . . . .

88 89 92 95 95 96 96 98

. . . . . . .

. . . . . . .

3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen ¨ oßen ¨ . . . . . . . . . . . . . . . . 3.3.1 Superponierende Storgr ¨ oßen ¨ 3.3.2 Unterdruckung superponierender Storgr mit der ¨ Differenzmethode . . . . . . . . . . . . . . . . . . . . . . . ¨ oßen ¨ 3.3.3 Deformierende Storgr . . . . . . . . . . . . . . . . . . ¨ oßen ¨ 3.3.4 Deformierende Storgr bei Gegenkopplung . . . . . . ¨ oßen ¨ 3.3.5 Superponierende Storgr bei Gegenkopplung . . . . . ¨ . . . . . . . . 3.3.6 Kompensation systematischer Storeinfl usse ¨ 3.3.7 Abschirmung . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ oßen ¨ 3.3.8 Superponierende Storgr in Messketten . . . . . . . . ¨ . . . . . . . . . . . . . . . . . . . . . . 3.3.9 Zerhackerverstarker

. . . . . . . .

. . . . . . . .

. . . . . . . .

3.4 Ruckwirkung des Messsystems . . . . . . . . . . . . . . . . . . . . . . . 101 ¨ 3.5 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

3 Stationäres Verhalten von Messsystemen In diesem Kapitel wird das stationäre Verhalten von Messsystemen untersucht. Im stationären Zustand sind alle Einschwingvorgänge des Messsystems abgeklungen und es stellt sich eine stabile Anzeige am Messsystem ein (Abb. 3.1). Das Verhalten des Messsystems wird nun alleine durch die stationäre Messkennlinie y(u) bestimmt.

Abbildung 3.1. Im stationären Zustand sind alle Einschwingvorgänge des Messsystems abgeklungen.

3.1 Stationäre Messkennlinie und deren Fehler 3.1.1 Ideale und reale Messkennlinie Die stationäre Messkennlinie y(u) beschreibt den funktionalen Zusammenhang zwischen den Messwerten u und den Anzeigewerten y im stationären Zustand, wobei zunächst der Einfluss von Störungen vernachlässigt werden soll. Die wesentlichen Begriffe werden anhand von Abb. 3.2 definiert. Messbereich: Der Messbereich [ua , ue ] wird vom Messanfang ua und vom Messende ue begrenzt. Dessen Breite beträgt ue − ua . Anzeigebereich: Analog wird der Anzeigebereich [ya , ye ] vom Anzeigeanfang ya = y(ua ) und vom Anzeigeende ye = y(ue ) begrenzt. Die Breite des Anzeigebereichs beträgt ye − ya .

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5_3

56

3. Stationäres Verhalten von Messsystemen

Abbildung 3.2. Reale Messkennlinie y(u) und ideale Messkennlinie yi (u).

Empfindlichkeit: Die Empfindlichkeit (engl. sensitivity) S(u) ist die Steigung der Messkennlinie y(u): S(u) =

∂f (u) ∂y(u) = . ∂u ∂u

(3.1)

Die Empfindlichkeit ist im Allgemeinen eine Funktion der Messgröße u. Diese Abhängigkeit von u charakterisiert das nichtlineare Verhalten der realen Kennlinie. Ideale Kennlinie: Zur Vereinfachung werden Messsysteme häufig durch eine lineare Kennlinie yi (u) beschrieben, die den Messanfang und das Messende durch eine Gerade miteinander verbindet. Man nennt diese Kennlinie auch ideale Kennlinie. Die ideale Kennlinie besitzt über dem gesamten Messbereich [ua , ue ] eine konstante Steigung Si =

ye − y a , ue − ua

(3.2)

die man als ideale Empfindlichkeit bezeichnet. Damit kann die ideale Messkennlinie angegeben werden: yi (u) = Si · (u − ua ) + ya .

(3.3)

Gleich große Änderungen der Messgröße gehen mit der gleichen Empfindlichkeit in die Messwertanzeige ein. Diese Eigenschaft wird gerade durch eine lineare Kennlinie gewährleistet. Die Fehler, die durch Verwendung der idealen Kennlinie statt der realen, nichtlinearen Kennlinie entstehen, werden in Abschnitt 3.1.3 beschrieben.

3.1

Stationäre Messkennlinie und deren Fehler

57

Der ideale Messwert ui resultiert aus dem tatsächlichen Anzeigewert y bei Annahme einer idealen Kennlinie mit konstanter Steigung Si . Entsprechend ist die ideale Messspanne ui − ua abhängig von y. Der ideale Anzeigewert yi folgt aus dem tatsächlichen Messwert u bei Annahme einer idealen Kennlinie mit konstanter Steigung Si . Somit ist die ideale Anzeigespanne yi − ya eine Funktion von u.

3.1.2 Abgleich der Messkennlinie Vor dem Abgleich werden die Normalbedingungen des Messsystems gemäß seiner Spezifikation eingestellt. Äußere Störgrößen werden dabei auf den spezifizierten Werten konstant gehalten oder durch Abschirmung bzw. Filterung ferngehalten. Der Einstellvorgang, der das Messsystem gemäß seiner technischen Beschreibung für die vorgesehene Messaufgabe tauglich macht, ist der Abgleich oder die Justierung. Unter Abgleichen oder Justieren versteht man einen physikalischen Eingriff in das Gerät oder seine Maßverkörperung mit dem Ziel, den Messbereich auf den vorgesehenen Bereich der Ausgabeeinrichtung, des Ausgangssignals oder der Anzeige abzubilden. Beispiel 3.1 (Justierung eines Temperaturmessgerätes): Eine digitale Temperaturan-

zeige soll im Messbereich zwischen 20 ◦ C und 100 ◦ C auf einen Anzeigebereich von 0 bis 100 % gebracht werden. Die Anzeigegröße ist eine elektrische Spannung U zwischen 2 und 300 mV. Eine vorhandene Skala eines Zeigerinstrumentes soll auf möglichst kleine Fehler justiert werden, d. h. bei U = 2 mV soll der Zeiger im Anfangspunkt der Skala (20 ◦ C) und bei U = 300 mV im Endpunkt der Skala (100 ◦ C) stehen (Abb. 3.3).

Abbildung 3.3. Justierung eines Temperaturmessgerätes.

Messgeräte haben im Allgemeinen zwei Möglichkeiten für den Abgleich: die additive Verschiebung und die multiplikative Drehung der Kennlinie (Abb. 3.4). Zwei Verfahren sind bei der Justierung gebräuchlich (siehe Abb. 3.5): Fixpunktjustierung: Nach der Fixpunktjustierung geht die Kennlinie durch den Anfangspunkt (ua , ya ) und durch den Endpunkt (ue , ye ) hindurch. Der Messbe-

58

3. Stationäres Verhalten von Messsystemen

Abbildung 3.4. Möglichkeiten für den Abgleich einer Kennlinie: (a) additive Verschiebung; (b) multiplika-

tive Drehung.

Abbildung 3.5. Fixpunkt- und Toleranzbandjustierung.

reich [ua , ue ] wird auf den Anzeigebereich [ya , ye ] abgebildet. Im Messanfang und Messende ist damit der Fehler null. Toleranzbandjustierung: Die Toleranzbandjustierung entsteht durch eine zusätzliche additive Verschiebung der Fixpunktjustierung. Ziel ist es, den maximalen Fehler im Messbereich möglichst klein zu gestalten. Der maximale Fehler wird im Vergleich zur Fixpunktjustierung auf die Hälfte reduziert. Die Kennlinie geht dann allerdings nicht mehr zwangsläufig durch den Anfangs- und den Endpunkt. In der Praxis wird der Fixpunktjustierung der Vorzug gegeben, weil die Justierung erheblich weniger arbeitsaufwendig ist. Der Abgleich unter Normalbedingungen bedeutet, dass er für den festen, spezifizierten Störgrößenvektor z0 vorgenommen wird. Die physikalische Messkennlinie y = f (u, z)

(3.4)

3.1

Stationäre Messkennlinie und deren Fehler

59

wird bei Fixpunktjustierung so justiert, dass die resultierende Kennlinie durch den gewünschten Anfangspunkt !

ya = f (ua , z0 )

(3.5)

geht. Der Nullpunktfehler (Offsetfehler) e(z) = f (ua , z) − ya

(3.6)

ist unter Normalbedingungen, d. h. für den Störgrößenvektor z = z0 , aufgrund der Justierung null: e(z0 ) = f (ua , z0 ) − ya = 0 .

(3.7)

Vom Justieren oder Abgleichen zu unterscheiden ist das Eichen. Das Eichen ist eine gesetzliche Maßnahme, die durch eine Prüfbehörde erfolgt.

3.1.3 Kennlinienfehler bei realer Kennlinie Nach der Justierung eines Messsystems werden alle systematischen Fehler als Kennlinienfehler interpretiert. Zu diesen Fehlern gehören sowohl die unerwünschten Nichtlinearitäten, die als Abweichung von der idealen Messkennlinie auftreten, als auch der Einfluss von Störgrößen z = z0 . Abschnitt 3.2 widmet sich der Reduktion von Fehlern infolge von Nichtlinearitäten, während in Abschnitt 3.3 die Unterdrückung von Störgrößeneinflüssen diskutiert wird. Zu einem Anzeigewert des Messgerätes y gehört der wahre Messwert u aufgrund der physikalischen Gesetzmäßigkeiten. Die ideale Kennlinie des Messgerätes ordnet aber dem Anzeigewert y einen fehlerhaften Messwert ui zu. Umgekehrt ordnet die ideale Kennlinie dem wahren Messwert u einen fehlerhaften Anzeigewert yi zu.

3.1.3.1 Relativer Kennlinienfehler Bezieht man die Messgröße u auf den Messanfang ua (Unterdrückung des Anfangswertes), so wird der relative Kennlinienfehler nach (1.12) zu Fr =

(ui − ua ) − (u − ua ) ui − u = . u − ua u − ua

(3.8)

Mit Hilfe der idealen Kennlinie (Abb. 3.2) y − ya = Si · (ui − ua ) ,

(3.9)

yi − ya = Si · (u − ua ) ,

(3.10)

y − yi = Si · (ui − u)

(3.11)

60

3. Stationäres Verhalten von Messsystemen

kann der relative Kennlinienfehler mittels der Anzeigegrößen angegeben werden: Fr =

y − yi Si y − yi · = . Si yi − ya yi − ya

(3.12)

Hierbei handelt es sich um den relativen Kennlinienfehler bezogen auf die Anzeigespanne. Neben dieser Variante sind weitere Definitionen des relativen Kennlinienfehlers gängig, bei welchen andere Bezugswerte gewählt werden: relativer Kennlinienfehler bezogen auf den Anzeigebereich: FrA =

y − yi , ye − ya

(3.13)

relativer Kennlinienfehler bezogen auf den Sollwert yi : FrS =

y − yi yi

sowie

(3.14)

relativer Kennlinienfehler bezogen auf den Endwert ye : FrE =

y − yi . ye

(3.15)

3.1.3.2 Hysterese und Umkehrspanne Steigert man die Messgröße u langsam und beobachtet dabei die Ausgangsgröße y, und nimmt dann die Messgröße wieder langsam auf den alten Wert zurück, wird man – insbesondere bei Geräten mit feinwerktechnischen Teilen – oftmals feststellen, dass der alte Wert der Ausgangsgröße nicht mehr erreicht wird. Durch den Messvorgang werden im Messgerät langsam veränderliche Vorgänge ausgelöst, die noch nachwirken. Es werden je nach Durchführung des Versuchs zwei Kenngrößen bestimmt. Hysterese: Zur Ermittlung der Hysterese wird die Messgröße langsam vom Messanfang ua bis zum Messende ue gesteigert und wieder langsam auf den Messanfang zurückgenommen (Abb. 3.6 links). Die größte dabei auftretende Differenz H der Messgröße zwischen den richtungsabhängigen Kennlinien wird auf den Messbereich bezogen und als Hysterese h angegeben: h=

H . ue − ua

(3.16)

Umkehrspanne: Die Umkehrspanne wird ähnlich wie die Hysterese ermittelt. Die Messgröße wird aber dazu nur um einige wenige Prozent geändert (Abb. 3.6 rechts). Der größte Fehler U zwischen Auf- und Abwärtsgang wird auf den Messbereich bezogen und als Umkehrspanne x angegeben: x=

U . ue − ua

(3.17)

3.1

Stationäre Messkennlinie und deren Fehler

61

Abbildung 3.6. Hysterese (links) und Umkehrspanne (rechts).

Beide Erscheinungen können zahlreiche Ursachen haben. Eine Umkehrspanne ist immer dann vorhanden, wenn im Messsystem Hemmungen existieren, die verhindern, dass bei einer stationären Messgröße der Gleichgewichtszustand eingenommen wird. Solche Hemmungen sind z. B. mechanische Reibung und Lose. In Abb. 3.6 sind rechts Umkehrspannen durch Reibung und Lose eingezeichnet. Bei Reibung ändert sich die Anzeigegröße y sprunghaft, wenn die größere Haftreibung überwunden wird. Existiert eine Umkehrspanne, wird man auch eine Hysterese messen. Das gleiche gilt jedoch nicht umgekehrt. Oft wird Hysterese durch innere Störgrößen hervorgerufen, wie z. B. durch die elastische Nachwirkung von Messfedern. Die Größe der Hystereseschleife ist in solchen Fällen abhängig von der Größe und der Dauer der Belastung, sie verschwindet aber für kleine Änderungen der Messgröße.

3.1.4 Abschätzung des Kennlinienfehlers Als Grundlage für eine quantitative Bewertung von Maßnahmen zur Fehlerunterdrückung in den Abschnitten 3.2 und 3.3 soll nun der relative Kennlinienfehler abgeschätzt werden. Nach (3.12) resultiert dieser aus der normierten Differenz von physikalischer und idealer Kennlinie: Fr =

y − yi . yi − ya

(3.18)

Bei dieser Betrachtung werden sowohl äußere Störgrößen z als auch Nichtlinearitäten der Kennlinie als Fehler erfasst. Mit der Empfindlichkeit S(u, z) aus (3.1) – die bei Berücksichtigung von Störungen ebenfalls vom Störgrößenvektor z abhängig ist – lässt sich die reale, stationäre Kennlinie im Messbereich [ua , ue ] durch Integration berechnen: "u y = f (ua , z) +

S(u, z) du . ua

(3.19)

62

3. Stationäres Verhalten von Messsystemen

Abbildung 3.7. Physikalische Messkennlinie für unterschiedliche Störgrößenvektoren.

Subtrahiert man ya von beiden Seiten in (3.19), so folgt mit dem Nullpunktfehler (3.6) "u y − ya = ua

"u S(u, z) du + f (ua , z) − ya =

  e(z)

S(u, z) du + e(z) ,

(3.20)

ua

vgl. Abb. 3.7. Der Nullpunktfehler e(z) im Messanfang ua ist – bedingt durch den Abgleich (3.7) für den Störgrößenvektor z0 – gerade null. Die mittlere Empfindlichkeit ¯ ua , z0 ) der realen nichtlinearen Kennlinie des Messgerätes erhält man aus dem S(u, Ansatz "u ! ¯ ua , z0 ) · (u − ua ) . (3.21) y − ya = S(u, z0 ) du = S(u, ua

¯ ua , z0 ) ergibt: Auflösen nach S(u, ¯ ua , z0 ) = S(u,

1 u − ua

"u S(u, z0 ) du = ua

y − ya . u − ua

(3.22)

Für das Messende u = ue stimmt diese mittlere Empfindlichkeit mit der idealen Empfindlichkeit überein (Abb. 3.8): ¯ e , ua , z0 ) = S(u

1 ue − ua

"ue S(u, z0 ) du = Si .

(3.23)

ua

Anderenfalls lautet die Empfindlichkeitsdifferenz: ¯ ua , z0 ) − Si . ¯ z0 ) = S(u, ΔS(u,

(3.24)

3.1

Stationäre Messkennlinie und deren Fehler

63

¯ ua , z0 ) unter spezifizierten NormalAbbildung 3.8. Veranschaulichung der mittleren Empfindlichkeit S(u, bedingungen.

Sie hängt von der jeweiligen Position des Messwertes im Messbereich und von der Wahl des Messanfangs ab. Der relative Kennlinienfehler ist nach (3.12) y − yi (y − ya ) − (yi − ya ) = yi − ya yi − ya   ¯ ua , z0 ) − Si · (u − ua ) ¯ z0 ) S(u, ΔS(u, = , = Si · (u − ua ) Si

Fr =

(3.25) (3.26)

wobei für die Umformung (3.26) der Zusammenhang (3.21) verwendet wurde. Aus (3.25) erhält man y − ya = (yi − ya ) · (1 + Fr ) = Si · (u − ua ) · (1 + Fr ) .

(3.27) (3.28)

Nach (3.26) ist der relative Kennlinienfehler Fr am Messanfang u = ua gerade gleich ¯ a , z0 ), bezogen auf die ideale Empfindlichkeit Si . der Empfindlichkeitsdifferenz ΔS(u Am Messanfang ist die physikalische Kennlinie y gleich der idealen Kennlinie yi , d. h. die Differenz ist null. Der dennoch von null abweichende Kennlinienfehler Fr am Messanfang liegt am Bezug auf die Anzeigespanne, die dort ebenfalls null ist. Die Kennlinie (1.9) wird zur Abschätzung des Fehlers in eine Taylor-Reihe um den Mess-

64

3. Stationäres Verhalten von Messsystemen

anfang u = ua entwickelt:

  ∂f (u, z0 )  1 ∂ 2 f (u, z0 )  y = f (ua , z0 ) + (u − ua ) + (u − ua )2   ∂u 2! ∂u2 u=ua u=ua  ∂ (n+1) f (u, z0 )  1 + ··· + (u − ua )n+1 + · · · .  (n + 1)! ∂u(n+1) u=ua

Durch Einsetzen der Empfindlichkeit S(u, z) = y = f (ua , z0 ) + S(ua , z0 ) · (u − ua ) + +

∂f (u,z) ∂u

(3.29)

erhält man:

1  S (ua , z0 ) · (u − ua )2 + · · · 2!

1 S (n) (ua , z0 ) · (u − ua )n+1 + · · · (n + 1)!

oder, durch Subtraktion von ya und Ausklammern von (u − ua ): ) 1 y − ya = (u − ua ) S(ua , z0 ) + S  (ua , z0 ) · (u − ua ) + . . . 2! * 1 (n) n + S (ua , z0 ) · (u − ua ) + . . . . (n + 1)!  

(3.30)

(3.31)

¯ S(u,u a ,z0 )

Durch Vergleich mit der mittleren Empfindlichkeit der realen Kennlinie in (3.21) wird diese näherungsweise zu ¯ ua , z0 ) ≈ S(ua , z0 ) + 1 S  (ua , z0 ) · (u − ua ) + · · · S(u, 2! 1 S (n) (ua , z0 ) · (u − ua )n . + (n + 1)!

(3.32)

Schließlich werden in (3.32) die Glieder zweiter und höherer Ordnung vernachlässigt: ¯ ua , z0 ) ≈ S(ua , z0 ) + 1 S  (ua , z0 ) · (u − ua ) . S(u, 2!

(3.33)

Der relative Kennlinienfehler Fr ist dann nach (3.26) S(ua , z0 ) + 12 S  (ua , z0 ) · (u − ua ) − Si Si ¯ a , z0 ) 1 S  (ua , z0 ) ΔS(u = + (u − ua ) . Si 2 Si

Fr ≈

(3.34) (3.35)

Über die Definition der mittleren Empfindlichkeit S¯ und über deren approximativen Berechnung mittels der Taylor-Reihenentwicklung lässt sich jetzt der relative Kennlinienfehler Fr gemäß (3.34) in Abhängigkeit der Empfindlichkeit und deren Ableitungen angeben.

3.2

Kennlinienfehler unter Normalbedingungen

65

3.2 Kennlinienfehler unter Normalbedingungen In diesem Abschnitt wird das Messsystem unter den spezifizierten Normalbedingungen betrieben. Der Störgrößenvektor hat dabei konstant den Wert z0 . Das Gerät ist so justiert, dass der Nullpunktfehler e(z0 ) = 0 ist. Die auftretenden Messfehler werden als Abweichung der Messkennlinie von der idealen Messkennlinie interpretiert. Durch die im Folgenden geschilderten Verfahren sollen die Kennlinie der idealen Grundform angenähert werden und damit die Messfehler reduziert werden. Ziel ist also eine möglichst lineare Kennlinie mit konstanter Empfindlichkeit S = Si = const.

3.2.1 Herabsetzen des Messbereichs Abbildung 3.9 zeigt den Signalflussplan der Anordnung zur Herabsetzung des Messbereichs. Das Glied mit nichtlinearer Kennlinie hat die Empfindlichkeit S(u). Angestrebt wird eine lineare Kennlinie mit S = const. über den Messbereich hinweg. Die Linearisierung soll mit einem vorgeschalteten linearen Übertragungsglied der Empfindlichkeit S0  1 und einem nachgeschalteten linearen Übertragungsglied der Empfindlichkeit S1  1 erreicht werden.

Abbildung 3.9. Herabsetzen des Messbereichs.

Mit den Bezeichnungen aus Abb. 3.9, (3.3) und (3.28) wird u1 − u1a = S0 · (u − ua ) ,

(3.36)

u2 − u2a = Si · (1 + Fr ) (u1 − u1a ) ,

(3.37)

y − ya = S1 · (u2 − u2a ) .

(3.38)

Daraus erhält man die Kennlinie der gesamten Kette zu y − ya = S0 S1 Si · (1 + Fr ) (u − ua ) .

(3.39)

Wegen S0  1 wird das nichtlineare Glied am Anfang u1a des Messbereichs betrieben. Der relative Fehler des nichtlinearen Gliedes lautet nach (3.35) Fr ≈ =

¯ 1a , z0 ) 1 S  (u1a , z0 ) ΔS(u + (u1 − u1a ) Si 2 Si

(3.40)

S(u1a , z0 ) 1 S  (u1a , z0 ) −1+ S0 · (u − ua ) , Si 2 Si

 

(3.41)

≈0

66

3. Stationäres Verhalten von Messsystemen

Abbildung 3.10. Dehnungsmessstreifen.

Abbildung 3.11. Wegmessung mit DMS.

wobei der letzte Term wegen S0  1 vernachlässigt werden kann. Die Ausgangsgröße in (3.39) wird damit y − ya ≈ S0 S1 S(u1a , z0 ) (u − ua ) .

(3.42)

Sie hängt nur noch von der konstanten Empfindlichkeit S(u1a , z0 ) im Messanfang des nichtlinearen Gliedes ab. Zur Kompensation des kleinen S0 muss S1 entsprechend groß gewählt werden, damit die Bedingung S0 · S1 = 1

(3.43)

eingehalten wird. Die Messkennlinie wird auf diese Weise linearisiert. Diese Vorgehensweise entspricht einer Linearisierung um einen Arbeitspunkt (hier u1 = u1a ). Dabei stellt das Glied mit der Empfindlichkeit S0  1 sicher, dass sich die Eingangsgröße des nichtlinearen Systems u1 nur wenig vom Arbeitspunkt wegbewegt. Beispiel 3.2 (Wegmessung mit Dehnungsmessstreifen): Dehnungsmessstreifen (DMS)

ermöglichen die Messung von Dehnungen, Stauchungen, Torsionen und anderen mechanischen Beanspruchungen im μm-Bereich. Bei mechanischen Beanspruchungen ändern sich die Länge und der Querschnitt A = πd2 /4 eines Leiters (Abb. 3.10) und somit ebenfalls der elektrische Widerstand R∝

, A

(3.44)

wobei d den Durchmesser des Leiters bezeichnet. Mit Hilfe von einem DMS soll eine Wegmessung mit einem Messbereich von 1 mm realisiert werden. Dies kann mit einer Anordnung nach Abb. 3.11 gelöst werden. Eine Blattfeder formt den für einen DMS zu großen Weg x in eine kleine Dehnung ε = Δ / um. Diesen kleinen Ausschlag ε · wandelt der DMS nahezu linear in ein elektrisches Signal um, das in einem Verstärker auf das gewünschte Niveau gebracht wird. Insgesamt erfolgt die Linearisierung in drei Schritten (Abb. 3.12): a) Umsetzung des Weges x in eine kleine Längenänderung Δ / mittels der Biegefeder: S0  1.

3.2

Kennlinienfehler unter Normalbedingungen

67

Abbildung 3.12. Beispiel für das Herabsetzen des Messbereichs.

b) Umsetzung der Längenänderung Δ / in eine Widerstandsänderung ΔR/R. Dabei wird im linearen Bereich der DMS-Kennlinie Abb. 3.13 gearbeitet. Im Hysteresebereich findet dagegen keine elastische Verformung mehr statt. c) Umsetzung von ΔR/R in eine Spannung ΔU/U mit anschließender Verstärkung: S1  1.

Abbildung 3.13. Kennlinie eines Dehnungsmessstreifens (DMS).

3.2.2 Reihenschaltung zweier nichtlinearer Glieder Hier werden die Bedingungen untersucht, die eine Reihenschaltung zweier nichtlinearer Glieder mit den Empfindlichkeiten S1 (u1 ) und S2 (u2 ) in einer Messkette gemäß Abb. 3.14 erfüllen muss, damit eine lineare Gesamtkennlinie resultiert.

Abbildung 3.14. Reihenschaltung zweier nichtlinearer Glieder.

Die Kennlinien und deren Empfindlichkeiten sind: u2 = f1 (u1 ) ,

(3.45)

y = f2 (u2 ) ,

∂u2 ∂f1 (u1 ) = = S1 (u1 ) , ∂u1 ∂u1

∂y ∂f2 (u2 ) = = S2 (u2 ) . ∂u2 ∂u2

(3.46)

68

3. Stationäres Verhalten von Messsystemen

Für die Gesamtkennlinie y(u1 ) erhält man die Empfindlichkeit: ∂y ∂y ∂u2 = · = S1 (u1 ) S2 (u2 ) . ∂u1 ∂u2 ∂u1

(3.47)

Für eine lineare Gesamtkennlinie muss folgender Zusammenhang gelten: !

(3.48)

S = S1 (u1 ) S2 (u2 ) = const.

Formal erhält man die exakte Lösung, wenn die Kennlinie y = f2 (u2 ) des zweiten Gliedes der Umkehrfunktion y = f1−1 (u2 ) der Kennlinie des ersten Gliedes entspricht. Zur Approximation dieses Verhaltens wird (3.48) in Abhängigkeit von der Eingangsgröße u1 in eine Taylor-Reihe um den Arbeitspunkt entwickelt. Als Linearitätsbedingung werden die ersten Koeffizienten der Taylor-Reihe zu null gesetzt (konstante Steigung, konstante Krümmung, konstante Krümmungsänderung usw.): dS du2 = S1 S2 + S1 S2 = S1 S2 + S12 S2 = 0 , du1 du1

(3.49)

d2 S = S1 S2 + 3S1 S1 S2 + S13 S2 = 0 , du21

(3.50)

d3 S 2 = S1 S2 + 4S1 S1 S2 + 3S1 S2 + 6S12 S1 S2 + S14 S1 = 0 . du31

(3.51)

Die Gleichungen sind mit steigenden Ansprüchen an die Linearisierung der Reihe nach zu erfüllen. Die Reihenfolge der nichtlinearen Glieder in der Messkette ist dabei für die Linearisierung wesentlich, da die Beziehungen nicht symmetrisch in S1 und S2 sind. Anhand von (3.49) erkennt man etwa, dass die Steigung S2 das zu S1 entgegengesetzte Vorzeichen haben muss: S2 = −

S2  S . S12 1

(3.52)

Beispiel 3.3 (Widerstandsthermometer in Brückenschaltung): Gegeben sei ein tempe-

raturabhängiger Widerstand mit einer Kennlinie nach Abb. 3.15. Die Kennlinie kann wie folgt beschrieben werden: 2

ΔRT = f1 (T ) = RT − RT0 = a (T − T0 ) + b (T − T0 ) .

(3.53)

Zur Widerstandsmessung wird eine Brückenschaltung im Abgleichverfahren verwendet (Abb. 3.16). Hierin ist in Reihe zum Temperaturwiderstand RT ein konstanter, temperaturunabhängiger Justierwiderstand Ri geschaltet, so dass mit R = RT0 + Ri

(3.54)

3.2

Kennlinienfehler unter Normalbedingungen

69

Abbildung 3.15. Kennlinie eines Widerstands-

Abbildung 3.16. Brückenschaltung zur Linea-

thermometers.

risierung.

die Brücke im Messanfang ΔRT = RT − RT0 = 0 auf U = 0 abgeglichen ist. Die Brückenausgangsspannung ist ( ' R T + Ri R − (3.55) U = f2 (ΔRT ) = UT − UR = U0 RT + Ri + R R + R ( ' RT0 + ΔRT + Ri 1 = U0 − (3.56) RT0 + ΔRT + Ri + R 2 ' ( ΔRT + R 1/2 ΔRT + R = U0 − (3.57) ΔRT + 2R ΔRT + 2R = U0

ΔRT 1 · . T 4R 1 + ΔR 2R

(3.58)

Beide Kennlinien ΔRT = f1 (T ) und U = f2 (ΔRT ) sind nichtlinear. Die Gesamtanordnung soll jedoch ein lineares Verhalten aufweisen. Die Empfindlichkeit S1 folgt aus der Widerstandskennlinie ΔRT = f1 (T ) (3.53) durch Differentiation:  d (ΔRT )  = a, (3.59) S1 (T = T0 ) = dT T =T0  d2 (ΔRT )  = 2b . (3.60) S1 (T = T0 ) = dT 2 T =T0 Die Empfindlichkeit S2 erhält man aus der Kennlinie (3.58) der Brückenschaltung U = f2 (ΔRT ), wobei am Arbeitspunkt T = T0 nach (3.53) ΔRT = 0 gilt:  dU  U0 , (3.61) = S2 (ΔRT = 0) =  dΔRT ΔRT =0 4R

70

3. Stationäres Verhalten von Messsystemen

 d2 U  U0  S2 (ΔRT = 0) = =− 2. dΔRT2 ΔRT =0 4R

(3.62)

Durch Einsetzen von S1 , S1 , S2 und S2 in die Bedingung (3.49) für eine konstante Steigung erhält man: 2b

U0 U0 − a2 =0 4R 4R2



R=

a2 , 2b

b > 0.

(3.63)

Der Justierwiderstand wird damit Ri = R − RT0 =

a2 − R T0 , 2b

b > 0.

(3.64)

Die Beziehung für den Justierwiderstand Ri zeigt, dass bei dieser Schaltung der Koeffizient b positiv sein muss und weiter, dass der Quotient a2 /2b ≥ RT0 sein muss. Für die weitverbreiteten Platin-Widerstandsthermometer ist beispielsweise b negativ, weshalb eine Linearisierung damit nicht erreicht werden kann. Nickel-Thermometer: Bei einem Nickel-Thermometer mit einem Widerstand von

RT0 = 100 Ω

bei

T0 = 0 ◦ C

(3.65)

und einem Messbereich von 100 ◦ C sind die beiden Koeffizienten a = 0,574 Ω/◦ C

und

b = 0,0007 Ω/(◦ C)2 .

(3.66)

Der Koeffizient b ist positiv. Der Justierwiderstand wird damit Ri = a2 /2b − RT0 = 135,34 Ω .

(3.67)

Im Folgenden sollen die resultierenden Kennlinien des Nickel-Widerstandsthermometers ohne und mit Linearisierung miteinander verglichen werden. Eine Approximation durch Newton-Polynome ergibt: a) ohne Linearisierung (Ri = 0): R = Ri + RT0 = RT0 = 100 Ω   T T U 1 − 1,7 · 10−2 ◦ ; = 1,87 · 10−3 ◦ → U0 C C

(3.68) (3.69)

b) mit Linearisierung (Ri = 135,34 Ω): a2 = 235,34 Ω 2b   T T U 1 − 2,0 · 10−4 ◦ . = 0,61 · 10−3 ◦ U0 C C

R = R i + RT 0 =

(3.70)



(3.71)

Die Nichtlinearität wurde damit um zwei Größenordnungen reduziert. Dafür wurde allerdings die Empfindlichkeit auf ein Drittel verringert.

3.2

Kennlinienfehler unter Normalbedingungen

71

3.2.3 Wahl des günstigsten Messbereichs Bei Messsystemen stehen oft Kennlinien mit einem großen Bereich der Eingangsgröße zur Verfügung. Für den gewünschten kleineren Messbereich ist nun daraus ein möglichst linearer Teil mit hoher Empfindlichkeit auszuwählen. Bei höheren Ansprüchen ist für die Wahl des Arbeitsbereichs der einfache Blick auf die Kennlinie unzureichend. Besser ist es, die Empfindlichkeit in Abhängigkeit von der Eingangsgröße aufzutragen – oder, wenn die Kennlinie nicht analytisch gegeben ist, auch die Differenzen erster Ordnung Δyi nach (2.64) oder die Steigung Δyi /h mit h als dem Stützstellenabstand aufzutragen (Abb. 3.17). Im Intervall [ua , ue ] sei die Empfindlichkeit S(u) der physikalischen Messkennlinie ausreichend hoch und wenig veränderlich. Dieses Intervall der Breite d = ue − ua wird daher als Arbeitsbereich des Messsystems gewählt.

Abbildung 3.17. Wahl des günstigsten Messbereichs.

Entsprechend der Fixpunktjustierung wird die mittlere Empfindlichkeit S¯ in diesem Bereich als ideale Empfindlichkeit Si gewählt; vgl. (3.2). Neben der grafischen Wahl des günstigsten Messbereichs ist auch eine analytische Berechnung möglich. Dazu wird als Gütemaß die quadratische Abweichung der Empfindlichkeit von der mittleren Empfindlichkeit S¯ über dem Messbereich integriert: u"a +d



S(u) − S¯

Q=

2

du .

(3.72)

ua

Gesucht ist der Messanfang ua , der mit Rücksicht auf die Nebenbedingung 1 S¯ = d

u"a +d

S(u) du ua

(3.73)

72

3. Stationäres Verhalten von Messsystemen

das Gütemaß Q minimiert. Durch Multiplikation des Binoms kann (3.72) wie folgt geschrieben werden: u"a +d

u"a +d

S (u) du − 2S¯

S(u) du + S¯2 d

2

Q= ua

ua



¯ Sd

bzw.

(3.74)



u"a +d

S 2 (u) du − S¯2 d .

Q=

(3.75)

ua

Die Differentiation von (3.75) nach ua ergibt die notwendige Bedingung ∂Q = S 2 (ua + d) − S 2 (ua ) − 2S¯ (S(ua + d) − S(ua )) ∂ua   ! = (S(ua + d) − S(ua )) · S(ua + d) + S(ua ) − 2S¯ = 0 .

    I

(3.76) (3.77)

II

Daraus erhält man zwei Bedingungen, von denen eine zu erfüllen ist. Kriterium I: Arbeitsbereich um einen Wendepunkt Die erste Bedingung aus (3.77) lautet: S(ua + d) − S(ua ) = y  (ua + d) − y  (ua ) = 0 . !

(3.78)

Demnach ist der Arbeitsbereich möglichst um einen Wendepunkt der Kennlinie zu legen (Abb. 3.18). Geht man von einem Wendepunkt der Kennlinie im Messbereich aus, so nimmt auf beiden Seiten des Wendepunktes – unabhängig von der

Abbildung 3.18. Kriterium I: Wahl des besten Messbereichs um einen Wendepunkt.

3.2

Kennlinienfehler unter Normalbedingungen

73

Richtung steigender oder fallender Eingangsgröße u – die Steigung S(u) immer entweder zu oder ab. Man findet also meistens zwei Punkte ua und ua + d, für die sich (3.78) erfüllen lässt. Die diese Endpunkte verbindende lineare Kennlinie konstanter Empfindlichkeit verläuft allerdings nicht unbedingt exakt durch den Wendepunkt. Kriterium II: Arbeitsbereich ohne Wendepunkt Die zweite Bedingung aus (3.77) lautet: 1 1 ! (S(ua + d) + S(ua )) − S¯ = (y  (ua + d) + y  (ua )) − S¯ = 0 . 2 2

(3.79)

Der Arbeitsbereich ist demnach so zu wählen, dass der arithmetische Mittelwert der Steigungen am Anfangspunkt ua und am Endpunkt ua +d gerade der mittleren Steigung S¯ entspricht (Abb. 3.19). Die lineare Kennlinie, die sich aus der Mittelung beider Steigungen ergibt, verläuft im Allgemeinen nicht durch den Endpunkt, d. h. sie entspricht nicht der idealen Kennlinie, die aus der Fixpunktjustierung resultiert.

Abbildung 3.19. Kriterium II: Wahl des besten Messbereichs ohne Wendepunkt.

Will man neben der Linearität auch eine möglichst hohe Empfindlichkeit erreichen, so kann anstelle des Gütemaßes Q aus (3.72) alternativ das Gütemaß u"a +d

1 R = ¯2 S d

¯ 2 du = 1 (S(u) − S) S¯2 d

ua

u"a +d

S 2 (u) du − 1

herangezogen werden. Die Ableitung von R nach ua ergibt ⎡ ⎤ u"a +d (S(ua +d) − S(ua )) ⎣S¯ d (S(ua +d) + S(ua )) − 2 S 2 (u) du⎦ = 0 .

  I

(3.80)

ua

ua

(3.81)

74

3. Stationäres Verhalten von Messsystemen

Der erste Faktor entspricht gerade dem ersten Term in (3.78), also dem Kriterium I. Hat die physikalische Kennlinie im ausgewählten Messbereich einen Wendepunkt, so hat auch das Gütemaß R ein Extremum. Durch Abschätzung der Empfindlichkeiten an zwei Messwerten kann man entscheiden, ob es sich um ein Maximum handelt. Beispiel 3.4 (Kurbeltrieb): Als Beispiel für das analytische Verfahren wird das Problem

der Umformung eines Drehwinkels φ mit dem Hub π/2 in eine lineare Hubbewegung mit Hilfe zweier Hebel behandelt (Abb. 3.20). In Abhängigkeit von der Anbringung wählt man einen Teil der Kennlinie als Messbereich aus. Mit den Bezeichnungen des Bildes erhält man für den Ausschlag y:  (3.82) y = r sin φ + l2 − r2 cos2 φ . Erwünscht ist ein möglichst linearer Zusammenhang zwischen y und φ.

Abbildung 3.20. Umformung eines Drehwinkels φ in einen Hub y mit einem Kurbeltrieb.

Das Verhältnis der Hebellängen r/l sei erheblich kleiner als 1. Die Gleichung √ vereinfacht sich mit der Näherung 1 − x ≈ 1 − x/2 für x  1 zu y r r2 = sin φ + 1 − 2 cos2 φ . l l 2l

(3.83)

Für die Empfindlichkeit der Anordnung gilt S(φ) =

d(y/l) r r2 = cos φ + 2 sin φ cos φ . dφ l l

Im Beispiel gelte π , 2

ua = φa ,

d=

 π cos φa + 2

= − sin φa .

 π sin φa + 2

= cos φa ,

(3.84)

(3.85) (3.86)

3.2

Kennlinienfehler unter Normalbedingungen

75

Abbildung 3.21. Kennlinie und Empfindlichkeit S(φ) beim Kurbeltrieb.

a) Durch Anwendung des Kriteriums I (3.78) erhält man: r r2 r r2 − sin φa − 2 sin φa cos φa = cos φa + 2 cos φa sin φa l l l l   1 2r 1 ⇔ . =− + l cos φa sin φa

(3.87) (3.88)

Die Gleichung lässt sich analytisch nicht lösen. Für ein Hebelverhältnis von r/l = 0,4 ergibt sich durch numerische oder grafische Lösung ein Messbereich von φa ≈ −30,7◦ bis φe ≈ 59,3◦ . Die Kennlinie und die Empfindlichkeit sind in Abb. 3.21 gezeichnet. Man erkennt, dass die Kennlinie einen Wendepunkt bei φ ≈ 18◦ besitzt, und kann hieraus schließen, dass das Kriterium I tatsächlich anwendbar ist. In Abb. 3.22 ist die ideale Kennlinie eingezeichnet als Sia . b) Das Kriterium II (3.79) ist erfüllt, wenn folgende Gleichung gilt: r (cos φa − sin φa ) = S¯ . 2l

(3.89)

Die mittlere Empfindlichkeit erhält man aus der Forderung nach einer Fixpunktjustierung zu y(φa + d) − y(φa ) S¯ ≈ Si = . d Durch Einsetzen von (3.90) in (3.89) ergibt sich:  r 2r  r  2 (cos φa − sin φa ) = cos φa − sin φa + cos φa − sin2 φa 2l πl 2l   r 2r r2 − − 2 (cos φa +sin φa ) = 0 . ⇔ (cos φa − sin φa ) 2l πl πl

(3.90)

(3.91) (3.92)

76

3. Stationäres Verhalten von Messsystemen

Abbildung 3.22. Ausschnittsvergrößerung von Abb. 3.21 (links) mit den beiden möglichen idealen Kennli-

nien.

Somit ist diese Bedingung erfüllt, wenn entweder cos φa − sin φa = 0 oder cos φa + sin φa =

(3.93)

π 4

−1

2l r

(3.94)

gilt. Beide Gleichungen sind wieder nur mit Näherungsverfahren lösbar. Für die erste Gleichung (3.93) ergibt sich als Lösung ein Bereich von φa ≈ −52◦ bis φe ≈ 38◦ , der in Abb. 3.22 als Sib eingezeichnet ist. Die Lösung der zweiten Gleichung (3.94) führt mit φa ≈ 45◦ und φe ≈ 135◦ zu einer Maximierung des Gütemaßes Q, weshalb in diesem Fall keine Lösung erhalten wird. Man erkennt in Abb. 3.21, dass ein Wendepunkt (Maximum des Empfindlichkeitsverlaufs) bei φ ≈ 18◦ vorliegt. Durch Vergleich der beiden Lösungen wird man sich in diesem Fall für das Kriterium I entscheiden, da es den besseren Arbeitsbereich liefert. Abbildung 3.22 lässt ebenfalls erkennen, dass bei der Kennlinie Sia der Linearisierungsfehler Q kleiner als bei der Kennlinie Sib ist.

3.2.4 Differenzmethode Bei der Differenzmethode werden zwei gleichartige Teilsysteme mittels einer Parallelschaltung verknüpft. Dadurch werden eine Linearisierung der Kennlinie und eine Steigerung der Empfindlichkeit erzielt. Abbildung 3.23 zeigt das Prinzip. Die Messgröße Δu = u − u0 wird um den Arbeitspunkt u0 betrachtet. Die Teilsysteme – typischerweise gleichartige Sensoren – sind derart angeordnet, dass die Messgrößenabweichung Δu auf beide gegensinnig wirkt. Dies kann erreicht werden, indem

3.2

Kennlinienfehler unter Normalbedingungen

77



Abbildung 3.23. Parallelschaltung gleichartiger Messsysteme.

man das Eingangssignal u bearbeitet oder, wie in Bsp. 3.5 gezeigt, indem die Signale u0 + Δu und u0 − Δu direkt abgegriffen werden. Schließlich wird durch die Parallelschaltung die Differenz der Ausgangsgrößen y1 und y2 gebildet. Die Wirkweise der Differenzmethode lässt sich am besten durch Zerlegung einer Funktion f (Δu) in einen geraden und einen ungeraden Anteil fg (Δu) bzw. fu (Δu) darstellen: (3.95)

f (Δu) = fg (Δu) + fu (Δu) ,

wobei als Argumente lediglich Abweichungen Δu = u − u0 vom Arbeitspunkt u0 betrachtet werden sollen. Mit fg (−Δu) = fg (Δu)

fu (−Δu) = −fu (Δu)

und

(3.96)

erhält man den geraden Funktionsteil als Summe (3.97)

f (Δu) + f (−Δu) = 2fg (Δu) und den ungeraden Funktionsteil als Differenz f (Δu) − f (−Δu) = 2fu (Δu) .

(3.98)

Der gerade Anteil besteht ausschließlich aus unerwünschten Nichtlinearitäten. Wird der Arbeitspunkt u0 in der Mitte des Messbereichs gewählt und die Kennlinie durch Differenzbildung als ungerader Funktionsteil gebildet, yD = f (Δu) − f (−Δu) = 2fu (Δu) ,

(3.99)

so wird der Einfluss der geraden Funktionsteile auf die Differenzkennlinie unterdrückt. Den Linearisierungseffekt erkennt man in Abb. 3.24, wo für eine Funktion f (Δu) die Differenzkennlinie 2fu (Δu) konstruiert ist. Entwickelt man die Funktionen y1 und y2 nach (3.30) in eine Taylor-Reihe um den Arbeitspunkt u0 , y1 = y(u0 + Δu)



= y(u0 ) + S(u0 ) Δu 1 +





2

S (u0 ) Δu S (u0 ) Δu + + ··· S(u0 ) 2! S(u0 ) 3!

(3.100)

 ,

(3.101)

78

3. Stationäres Verhalten von Messsystemen

Abbildung 3.24. Grafische Konstruktion der Kennlinie bei der Differenzmethode.

y2 = y(u0 − Δu)



= y(u0 ) + S(u0 ) (−Δu) 1 +







S (u0 ) −Δu S (u0 ) (−Δu) + + ··· , S(u0 ) 2! S(u0 ) 3! 2

so erhält man mit yD = y1 − y2 die Differenzkennlinie   S (2v) (u0 ) Δu2v S  (u0 ) Δu2 yD = 2S(u0 ) Δu 1 + + ··· + + ··· . S(u0 ) · 3! S(u0 ) · (2v+1)!

(3.102) (3.103)

(3.104)

Die Krümmung der Messkennlinie wird durch den Term 1  S (u0 ) (Δu)2 2

(3.105)

der Taylor-Reihe (3.30) repräsentiert. Als gerade Funktion fällt er bei der Differenzbildung heraus – genauso wie alle sonstigen geradzahligen Terme. Dadurch erklärt sich die linearisierende Wirkung der Differenzmethode. Der relative Fehler der ursprünglichen Kennlinie ist nach (3.34) Fr =

S(u0 , z0 ) + 12 S  (u0 , z0 ) Δu − Si y − yi ≈ . yi Si

(3.106)

3.2

Kennlinienfehler unter Normalbedingungen

79

Die ideale Kennlinie der Differenzanordnung yDi = 2Si · Δu

(3.107)

hat die doppelte Empfindlichkeit, so dass man entsprechend (3.34) für den relativen Fehler der Differenzkennlinie aus (3.104) folgenden Ausdruck erhält: FrD =

2S(u0 , z0 ) + 13 S  (u0 , z0 ) Δu2 − 2Si yD − yDi ≈ . yDi 2Si

(3.108)

Die Empfindlichkeit der ursprünglichen Kennlinie im Arbeitspunkt u0 ist gerade gleich der halben Empfindlichkeit der linearisierten Differenzkennlinie: S(u0 , z0 ) =

1 (2Si ) = Si . 2

(3.109)

Der relative Fehler der Differenzkennlinie (3.108) wird damit zu FrD ≈

1 S  (u0 , z0 ) Δu2 . 6 Si

(3.110)

Er ist proportional zur zweiten Ableitung der Empfindlichkeit der ursprünglichen Kennlinie im Arbeitspunkt und wächst quadratisch nach beiden Seiten an. Diesen Betrachtungen liegen Taylor-Entwicklungen zugrunde, die nach dem 3. Term abgebrochen wurden. Diese Näherung ist bei den meisten physikalischen Messkennlinien ausreichend. Im Arbeitspunkt u0 ist der Kennlinienfehler null – diese Aussage gilt exakt. Das Verhältnis des Fehlers der Differenzkennlinie zu dem der ursprünglichen Kennlinie ist FrD 1 S  (u0 , z0 ) · Δu . ≈ Fr 3 S  (u0 , z0 )

(3.111)

Beispiel 3.5 (Kapazitiver Beschleunigungssensor): Mittels einer mikromechanischen

Technologie wird eine kammartige Struktur geätzt, die beweglich an vier Punkten aufgehängt ist (Abb. 3.25). Die Struktur bildet ein Feder-Masse-Dämpfer-System, das durch die Beschleunigung a um Δd ausgelenkt wird: m Δd¨ + β Δd˙ + c Δd = m a = Fm ,

(3.112)

wobei m die Masse, β die Dämpfungskonstante und c die Federkonstante bezeichnen. Im stationären Zustand (Δd = const.) verschwinden die zeitlichen Ableitungen: Fm = m a = c Δd ,

(3.113)

80

3. Stationäres Verhalten von Messsystemen

Abbildung 3.25. Kapazitiver Beschleunigungssensor.

woraus man die Auslenkung Δd =

1 m a= 2a c ω0

(3.114)

erhält. Aufgrund der hohen Eigenfrequenz ω0 sind die Auslenkungen Δd klein. Zwischen den Kämmen liegen jeweils zwei ortsfeste Strukturen, welche gegen den Kamm die Kapazitäten C1 und C2 bilden. Bei Auslenkung um Δd nach links wird C2 größer und gleichzeitig C1 kleiner:     1 d Δd 1 1 1 · (d + Δd) = 1+ = = a , (3.115) 1+ C1 εA εA d C0 dω02     1 d Δd 1 1 1 · (d − Δd) = 1− = 1− = a . (3.116) C2 εA εA d C0 dω02 Die Kapazitätsänderungen an C1 und C2 können mittels Spannungsteiler erfasst werden, die von der Wechselspannung u∼ gespeist werden (Abb. 3.26). Mit Hilfe einer Maschenanalyse ergibt sich u1 ∼ =

1/C1 1 + Δd/d u∼ , u∼ = 1/C1 + 1/C0 2 + Δd/d

(3.117)

u2 ∼ =

1/C2 1 − Δd/d u∼ . u∼ = 1/C2 + 1/C0 2 − Δd/d

(3.118)

Daraus kann die Differenzspannung Δu∼ = u1 ∼ − u2 ∼ =

2 Δd d  2 u∼ 4 − Δd d

(3.119)

3.2

Kennlinienfehler unter Normalbedingungen

81

Abbildung 3.26. Schaltbild zur Beschleunigungsmessung.

Abbildung 3.27. Brückenschaltung der Messkondensatoren.

gebildet werden. Für kleine Auslenkungen Δd/d  1 gilt die Näherung Δu∼ ≈

1 Δd u∼ . 2 d

(3.120)

Somit besteht näherungsweise ein linearer Zusammenhang zwischen der Differenzspannung Δu∼ und der Auslenkung Δd. Die separaten Spannungsteiler nach Abb. 3.26 mit nachfolgender Differenzbildung sind allerdings für praktische Anwendungen weniger geeignet. Daher verwendet man eine Wechselstrombrücke nach Abb. 3.27, in der zwei veränderliche Kapazitäten C1 und C2 in Serie geschaltet sind. Mit ihr kommt man zu einem entsprechenden Ergebnis: Δu∼ = u1∼ − u0∼ =

Δd C1−1 1 1 −1 −1 u∼ − 2 u∼ = 2 u∼ d . C1 + C2

(3.121)

Die Differenzspannung Δu∼ bildet eine lineare Messkennlinie in Abhängigkeit von Δd. Nach einer Gleichrichtung erhält man im stationären Zustand die Aus-

82

3. Stationäres Verhalten von Messsystemen

gangsspannung als |Δu∼ | =

1 1 1 Δd m 1 |u∼ | = |u∼ | a = |u∼ | 2 a = m Si a . 2 d 2 cd 2 ω0 d

(3.122)

Die Empfindlichkeit Si beschreibt den Zusammenhang zwischen der Beschleunigungskraft Fm auf die Masse des beweglichen Kammes und der Ausgangsspannung |Δu∼ |: Si =

|u∼ | 1 |Δu∼ | |u∼ | Δd = . = Fm 2Fm d 2d c

(3.123)

Ist die Kreisfrequenz der Brückenspeisespannung u∼ höher als die Eigenfrequenz ω0 des Feder-Masse-Dämpfer-Systems, so führt die Spannung u∼ zu keinen nennenswerten Ausschlägen Δd.

3.2.5 Gegenkopplung Die Gegenkopplung ist eine wirkungsvolle Methode, um eine nahezu ideale Kennlinie zu erhalten. Ihr Kennzeichen ist der geschlossene Kreis (Abb. 3.28). Bei der Gegenkopplung wird die Messgröße u mit einer vom Ausgangssignal y abgeleiteten Größe K(y) verglichen und ein Abgleich durchgeführt, bis die Differenz v gleich null ist. Man spricht von einem Kompensationsverfahren. Voraussetzung für die Anwendung der Gegenkopplung ist die Existenz eines Übertragungs- bzw. Messgliedes K(y) im Kompensationszweig, das ein Signal in der gleichen physikalischen Größe wie die Messgröße u liefert. Nur dann ist ein Vergleich mit der Messgröße möglich.



Abbildung 3.28. Strukturbild der Gegenkopplung.

Bezeichnet f (v) die physikalische Messkennlinie, so kann die Empfindlichkeit S(v) =

∂f (v) ∂v

(3.124)

wegen des kleinen Messbereichs ve − va (kleine Regelabweichung im stationären Zustand) als konstant angenommen werden: S(ve ) = S(va ) = Si > 0 .

(3.125)

3.2

Kennlinienfehler unter Normalbedingungen

83

Aus dem Strukturbild Abb. 3.28 erhält man die beiden Beziehungen y = Si V · v ,

(3.126)

v = u − K(y) .

(3.127)

Daraus resultieren folgende Gleichungen: 1 y = u − K(y) , Si V 1 K(y) = u − y. Si V

v=

(3.128) (3.129)

Für große Verstärkungen V  1 wird die letzte Gleichung zu K(y) ≈ u ,

(3.130)

d. h. für monoton steigende Kennlinien K(y) geht die Kennlinie der gesamten Anordnung in die inverse Rückkopplungsfunktion über: y = K −1 (u) .

(3.131)

Somit wird die Messkennlinie des geschlossenen Kreises bei ausreichend hoher Verstärkung V ausschließlich vom Rückkopplungszweig bestimmt. Falls eine Auftrennung von K(y) in K  · y möglich ist, ergibt sich mit (3.129)   1 1   y ⇔ K 1+  y=u (3.132) K(y) = K · y = u − Si V K Si V und durch Auflösen nach y: y=

u · K

1 1+

1 K  Si V

.

(3.133)

Mit der Näherung 1/(1 + x) ≈ 1 − x für |x|  1, was einer nach dem ersten Glied abgebrochenen Potenzreihenentwicklung entspricht, erhält man   1 u . (3.134) y ≈  · 1−  K K Si V Mit der idealen Kennlinie yi =

1 ·u K

(3.135)

wird der relative Kennlinienfehler der gesamten Gegenkopplungsanordnung zu FrG =

y − yi 1 . ≈−  yi K Si V

(3.136)

84

3. Stationäres Verhalten von Messsystemen

Bei ausreichend hoher Verstärkung V wird ein Linearisierungseffekt der Kennlinie wie im Abschnitt 3.2.1 durch Herabsetzen des Messbereichs erreicht. Es muss jedoch darauf hingewiesen werden, dass in vielen Fällen geeignete Gegenkopplungsglieder K(y) fehlen, welche die Ausgangsgröße y auf die Messgröße u abbilden. So ist z. B. kein Übertragungsglied K(y) bekannt, das eine elektrische Ausgangsgröße unmittelbar in eine Temperatur abbildet und so einen gegengekoppelten Temperatur-Messumformer ermöglicht. Ein Nachteil der Gegenkopplung ist die durch den Regelkreis hinzukommende Dynamik. Bei zu hoher Verstärkung V kann das System sehr lange Einschwingzeiten besitzen oder sogar instabil werden (Abschnitt 5.5.2). Ein Beispiel für die Gegenkopplung ist der Druck-Messumformer in Abb. 3.29. Die Gegenkopplung wird nicht unmittelbar als Druckvergleich, sondern als Kräftevergleich durchgeführt, weil es nur dafür ein geeignetes Übertragungsglied gibt. Für V  1 und damit ΔF ≈ 0 erhält man aus dem Kräftegleichgewicht Fp = FL von der Druckkraft Fp = p A und der Lorentz-Kraft FL = B l i als Ausgangsgröße die Stromstärke i in Abhängigkeit von

Beispiel 3.6 (Druck-Messumformer):

Abbildung 3.29. Druck-Messumformer mit Rückkopplung über Kräftevergleich.

3.2

Kennlinienfehler unter Normalbedingungen

85

der Messspannung u: i=

A p, Bl

(3.137)

wobei A die Fläche der Membran, B die magnetische Flussdichte und l die Leiterlänge bezeichnen. Die Gegenkopplung wird ebenfalls verwendet, um nichtlineare Kennlinien zu realisieren. Umfasst der Messbereich mehrere Größenordnungen, wie z. B. bei Teilchenraten in der Kerntechnik, so verwendet man logarithmische Verstärker. Die Messkennlinie wird dann durch Kompensationsglieder K(y) im Gegenkopplungszweig mit exponentieller Charakteristik realisiert (z. B. Diodenkennlinie). Beispiel 3.7 (Durchflussmessung): Bei der Durchflussmessung nach dem Wirkdruck-

verfahren ist der Wirkdruck   ρ 1 1 2 Δp = − 2 qV 2 A22 A1

(3.138)

proportional zum Quadrat des Volumendurchflusses qV , wobei A1 und A2 die Querschnitte vor bzw. nach der Rohrverengung und ρ die Dichte des Fluids bezeichnen; vgl. Abb. 3.30 [2]. Verleiht man der Messkennlinie durch Gegenkopplung insgesamt eine Wurzelcharakteristik, so erhält man gerade den gesuchten Durchfluss: +  2   −2 Δp = qV . (3.139) y= −2 · ρ A2 − A1 Die Wurzelcharakteristik wird durch eine quadratische Kennlinie K(y) = K · y 2 im Rückkopplungszweig erzeugt.

Abbildung 3.30. Durchflussmessung nach dem Wirkdruckverfahren.

(3.140)

86

3. Stationäres Verhalten von Messsystemen

Die Messkennlinien des gegengekoppelten Kreises beruhen in diesem Kapitel auf rein stationären Beziehungen. Bei Stabilitätsproblemen muss man auf die Methoden der Regelungstechnik zurückgreifen [1, 3].

3.3 Kennlinienfehler bei Abweichungen von den Normalbedingungen Im vorherigen Abschnitt wurden die stationären Eigenschaften der Messkennlinie bei den spezifizierten Normalbedingungen behandelt und Verbesserungen der Kennlinie vorgenommen. Weichen die Betriebsbedingungen von den Normalbedingungen ab, so ändert sich der Störgrößenvektor von z0 auf z, was in der Regel eine Änderung des Kennlinienabgleichs mit sich bringt. Beispiele für sich ändernde Störgrößen sind: Temperatur, Temperaturgradient, Feuchte, mechanische Erschütterungen, Stöße, Aussteuerung des Messsystems über den Messbereich hinaus sowie Änderung von Hilfsenergien. Nach ihrer Wirkung auf die Messkennlinie lassen sich superponierende (additive) und deformierende (multiplikative) Störgrößen unterscheiden. Im Folgenden werden Maßnahmen zu deren Unterdrückung behandelt.

3.3.1 Superponierende Störgrößen Abbildung 3.31 zeigt exemplarisch einen superponierenden Fehler. Er ist dadurch gekennzeichnet, dass er über den gesamten Messbereich konstant ist. Der Nullpunktfehler e(z) ändert sich abhängig vom Störgrößenvektor z: e(z) = e(z0 ) + Δe(z) .

 

(3.141)

=0

Die Empfindlichkeit der Kennlinie ändert sich dagegen bei rein superponierenden Fehlern nicht: ΔS(u, z) = 0 .

(3.142)

Die physikalische Messkennlinie wird dann mit ya0 = y(ua , z0 ): "u S(u, z0 ) du + Δe(z) .

y = ya0 + ua

(3.143)

3.3

Kennlinienfehler bei Abweichungen von den Normalbedingungen

87

Abbildung 3.31. Superponierender Fehler durch Störgrößenänderung.

Die Änderung des Nullpunktfehlers wird durch eine Taylor-Reihe 1. Ordnung im Störgrößenabgleichpunkt z0 abgeschätzt:   ∂y(ua , z)   Δzj . (3.144) Δe(z) = y(ua , z) − ya0 ≈  ∂z j z=z0 j Der superponierende Fehler bezogen auf die Anzeigespanne ist dann  ∂y(ua , z)   Δzj  ∂z j z=z0 Δe(z) j Fr,sup = . = ,u y(u, z0 ) − ya0 S(u, z0 ) du

(3.145)

ua

Für eine vereinfachte Abschätzung des Fehlers wird im Folgenden angenommen, dass die Empfindlichkeit im Messbereich näherungsweise konstant sei: S(u, z0 ) ≈ Si ,  ∂y(ua , z)  ya (zj ) − ya0 ≈ . ∂zj z=z0 Δzj

(3.146) (3.147)

Damit wird der superponierende Kennlinienfehler (3.145) zu Fr,sup ≈

 1 (ya (zj ) − ya0 ) . Si (u − ua ) j

(3.148)

88

3. Stationäres Verhalten von Messsystemen

Weil Fr,sup am Messanfang ua gegen unendlich strebt, verwendet man auch den superponierenden Fehler bezogen auf den Anzeigebereich: FrA,sup ≈

 ya (zj ) − ya0 j

Si (ue − ua )

=

 ya (zj ) − ya0 j

ye0 − ya0

.

(3.149)

Bei gleichzeitigem Vorhandensein von superponierendem und deformierendem Fehler wird der superponierende Fehler am Messanfang betrachtet.

3.3.2 Unterdrückung superponierender Störgrößen mit der Differenzmethode Zur Eliminierung superponierender Störgrößen wird die Differenzanordnung nach Abb. 3.23 herangezogen. Anhand von (3.99) erkennt man, dass in die Differenzkennlinie nur der ungerade Teil eingeht, wenn gleichartige Teilsysteme parallel geschaltet werden. Superponierende Störgrößen gehören zum geraden Teil der Messkennlinie und werden daher bei der Differenzmethode unterdrückt. Die Kennlinien der Einzelmesssysteme sind allgemein analog zu Abb. 3.23 durch y1 = y(u0 + Δu) + z1

und

y2 = y(u0 − Δu) + z2

(3.150)

gegeben, wobei hier im Gegensatz zu Abschnitt 3.2.4 die superponierenden Störungen z1 bzw. z2 berücksichtigt wurden. Für die Differenzkennlinie ergibt sich mit (3.104):   S  (u0 ) Δu2 + · · · + z1 − z2 . (3.151) yD = y1 − y2 ≈ 2S(u0 ) Δu 1 + S(u0 ) · 3! Bei Abbruch der Taylor-Reihe nach dem linearen Glied erhält man daraus die Näherung:   z1 − z2 . (3.152) yD ≈ 2S(u0 ) Δu 1 + 2S(u0 ) Δu Der superponierende Kennlinienfehler der Differenzanordnung Fr,sup =

z1 − z2 2S(u0 ) Δu

(3.153)

ist bei gleichartig einwirkenden Störgrößen z1 = z2 gerade null. Dieser Eigenschaft und dem Linearisierungseffekt auf die Kennlinie (Abschnitt 3.2.4) verdankt das Differenzverfahren seine weite Verbreitung in der Messtechnik. Eine superponierende Störgröße zj (Nullpunktverschiebung) wirkt sich gleichmäßig auf beide Kennlinien aus. Dieser Hub fällt gemäß (3.152) bei der Differenzbildung wieder heraus.

3.3

Kennlinienfehler bei Abweichungen von den Normalbedingungen

89

+ −

Abbildung 3.32. Absolutdruckmesser als Beispiel für die Differenzmethode.

Beispiel 3.8 (Absolutdruckmesser): Beim Absolutdruckmesser aus Abb. 3.32 wird der

Druck in einer Membrandose gemessen, die eine zur Differenz p1 − p0 zwischen Mess- und Luftdruck proportionale Kraft erzeugt. Nimmt man an, dass der Luftdruck p0 konstant bleibt, so kann der durch den Messdruck erzeugte Ausschlag auch auf einer Skala, die in Absolutdruckwerten geteilt ist, angegeben werden. Ändert sich hingegen der Luftdruck p0 gegenüber den Normalbedingungen, bewirkt diese additive Störgröße Δp0 einen Fehler, der durch ein zweites Messwerk kompensiert werden kann. Die zweite Dose ist evakuiert (p = 0). Sie erfährt eine Messkraft, die allein dem Umgebungsluftdruck p0 + Δp0 entspricht. Im Messgerät kommt insgesamt die Differenz der Messkräfte der Dosen 1 und 2 zur Anzeige.

3.3.3 Deformierende Störgrößen Die Empfindlichkeit der physikalischen Messkennlinie ändere sich in Abhängigkeit vom Störgrößenvektor z (Abb. 3.33): S(u, z) = S(u, z0 ) + ΔS(u, z) .

(3.154)

Der Nullpunktfehler ändert sich bei rein deformierenden Fehlern nicht: !

(3.155)

Δe(z) = 0 . Die physikalische Messkennlinie wird damit "u

"u S(u, z0 ) du +

y = ya + ua

"u ΔS(u, z) du = y(u, z0 ) +

ua

ΔS(u, z) du . ua

(3.156)

90

3. Stationäres Verhalten von Messsystemen

Abbildung 3.33. Einfluss eines deformierenden Fehlers auf die Messkennlinie.

Die Empfindlichkeitsänderung wird durch eine Taylor-Reihe im Störgrößenabgleichpunkt z0 abgeschätzt: ΔS(u, z) ≈

 ∂S(u, z0 ) k

∂zk

Δzk .

(3.157)

Der absolute Kennlinienfehler ergibt sich durch Einsetzen dieser Näherung in (3.156) zu u  " ∂S(u, z0 ) Δzk du . (3.158) Δy = y − y(u, z0 ) = ∂zk k

ua

Der relative deformierende Kennlinienfehler wird damit u  " ∂S(u, z0 ) Δzk du ∂zk k y − y(u, z0 ) ua . = Fr,def = ,u y(u, z0 ) − ya S(u, z0 ) du ua

(3.159)

3.3

Kennlinienfehler bei Abweichungen von den Normalbedingungen

91

Für eine vereinfachte Abschätzung des Fehlers wird im Folgenden angenommen, dass zur Berechnung der Anzeigespanne im Nenner von (3.159) mit konstanten Empfindlichkeiten im Messbereich gerechnet werden kann: S(u, z0 ) ≈ Si0 .

(3.160)

Des Weiteren seien die Empfindlichkeitsänderungen durch die Störgrößen näherungsweise ∂Si (u, z0 ) Si (zk ) − Si0 ΔSi (zk ) ≈ = . ∂zk Δzk Δzk Damit erhält man für den deformierenden Kennlinienfehler (3.159): 1  Fr,def = ΔSi (zk ) . Si0

(3.161)

(3.162)

k

Mit diesen Abschätzungen kann nun der Einfluss einer einzelnen deformierenden Störgröße zk auf die Steigung der Messkennlinie angegeben werden. Dabei wird für den Anzeigewert nicht der Abgleichpunkt z0 herangezogen, sondern der Wert, der sich bei Berücksichtigung einer superponierenden Störung zj ergibt. Mit dem Anfangswert ya (zj ) erhält man den Kennlinienfehler Fr,def = =

Si (zk ) − Si0 ΔSi (zk ) [ye (zk ) − ya (zj )] − [ye (zj ) − ya (zj )] = = Si0 Si0 ye (zj ) − ya (zj )

(3.163)

[ye (zk ) − ya (zj )] − (ye0 − ya0 ) , ye0 − ya0

(3.164)

wobei die Identität ye (zj ) − ya (zj ) = ye0 − ya0 durch die superponierende Natur des Fehlers zj zu erklären ist. Wirken je ein superponierender und ein deformierender Fehler gleichzeitig auf die Messkennlinie ein, so können beide Fehler überlagert werden. Die Taylor-Reihe im Störgrößenabgleichpunkt z0 lautet dann allgemein y = y(u, z0 ) +

∂y(u, z0 ) ∂y(u, z0 ) Δzj + Δzk ∂zj ∂zk

(3.165)

und für lineare Kennlinien mit (3.156) und (3.164) y = ya0 + Si0 (u − ua ) + Δe(zj ) +

ΔSi (zk ) Si0 (u − ua ) Si0

(3.166)

= ya0 + Si0 (u − ua ) + [ya (zj ) − ya0 ]

  y(u,z0 )

+

[ye (zk ) − ya (zj )] − (ye0 − ya0 ) Si0 (u − ua ) . ye0 − ya0

(3.167)

92

3. Stationäres Verhalten von Messsystemen

Der relative Kennlinienfehler bezogen auf die Anzeigespanne ist damit Fr =

ye (zk ) − ya (zj ) − (ye0 − ya0 ) y − y(u, z0 ) ya (zj ) − ya0 + = . y(u, z0 ) − ya0 Si0 (u − ua ) ye0 − ya0

(3.168)

Im Messanfang geht dieser Fehler wieder gegen unendlich. Der relative Fehler bezogen auf den Anzeigebereich ist FrA =

y − y(u, z0 ) ye (zk ) − ye0 = . ye0 − ya0 ye0 − ya0

(3.169)

3.3.4 Deformierende Störgrößen bei Gegenkopplung Im Folgenden soll der Einfluss einer deformierenden Störgröße zk auf die Steigung Si der Messkennlinie durch eine Gegenkopplung reduziert werden. Die Messkennlinie des gegengekoppelten Messsystems Abb. 3.28 ist nach (3.133) y=

u K

1 1+

1 K  Si V

.

(3.170)

Die vorhin als konstant angenommene Empfindlichkeit Si des Messgliedes ohne Rückführung ändere sich im Messbereich aufgrund einer deformierenden Störgröße zk : Si (zk ) = Si0 + ΔSi (zk ) .

(3.171)

Durch Differentiation der Messkennlinie (3.133) nach Si mittels der Quotientenregel folgt die Steigung der Kennlinie bedingt durch Änderungen von Si : ∂y V =u 2 . ∂Si (1 + K  · Si V )

(3.172)

Damit wird, zur Abschätzung des Kennlinienfehlers, die Ausgangsgröße y in eine Taylor-Reihe um Si0 herum entwickelt:  ∂y  ΔSi (zk ) + · · · (3.173) y ≈ y(Si0 ) + ∂Si Si0   Si0 V 1 ΔSi (zk ) ≈u 1+ · . (3.174) 1 + K  · Si0 V 1 + K  · Si0 V Si0 Der relative Fehler bei Gegenkopplung ist dann: FrG,def =

1 ΔSi (zk ) y − y(Si0 ) = · . y(Si0 ) 1 + K  · Si0 V Si0

(3.175)

3.3

Kennlinienfehler bei Abweichungen von den Normalbedingungen

93

Bildet man das Verhältnis des relativen Fehlers des gegengekoppelten Systems (3.175) zum nicht gegengekoppelten Messsystem in (3.163), so erhält man FrG,def 1 . = Fr,def 1 + K  Si0 V

(3.176)

Durch die Gegenkopplung wird der relative Kennlinienfehler aufgrund einer deformierenden Störgröße zk um die Verstärkung V des offenen Kreises reduziert. Beispiel 3.9 (Kapazitiver Beschleunigungsmesser): Auf das Beispiel 3.5 des kapazi-

tiven Beschleunigungsmessers in Abschnitt 3.2.4 soll eine Gegenkopplung angewendet werden. Die Empfindlichkeit Si0 =

|u∼ | 2dc

(3.177)

hängt von der Wechselspannung |u∼ | ab, mit der die kapazitive Brücke gespeist wird. Änderungen von |u∼ | gehen unmittelbar als deformierende Störgröße in die Ausgangsspannung |Δu∼ | ein. Durch eine Gegenkopplung gemäß Abb. 3.34 mit dem nichtlinearen Übertragungsglied  1 Δd (3.178) uC = V |Δu∼ | = V |u∼ | 2 d soll der Einfluss der Spannung |u∼ | auf die Ausgangsgröße |Δu∼ | verringert werden. Die resultierende Gesamtübertragungsfunktion K  der Rückführung soll linear sein und bewirken, dass durch Rückkopplung der verstärkten Ausgangsspannung uk auf die Kammstruktur eine kompensierende Anziehungskraft Fk ausgeübt wird, die diese in die Nulllage zurückholt und auf diese Weise die Beschleunigungskraft Fm ausgleicht. Dafür wird die zurückgeführte Spannung uC



Abbildung 3.34. Kapazitiver Beschleunigungssensor mit Gegenkopplung.

94

3. Stationäres Verhalten von Messsystemen

Abbildung 3.35. Spannungsrückkopplung.

gemäß Abb. 3.35 auf beide Kondensatoren C1 und C2 verteilt:    Δd Δd 1 1 1 Δd 1+ uC = 1+ |u∼ | , V uC1 = 2 d 2 d 2 d    Δd Δd 1 1 1 Δd uC2 = 1− uC = 1− |u∼ | . V 2 d 2 d 2 d Die Energie auf den Kondensatoren   1 C0 V Δd Δd |u∼ | 1 ± E1,2 = C1,2 u2C1,2 = 2 16 d d wird nach Δd differenziert, was zu den folgenden Kräften führt:   1 Δd C0 V |u∼ | ± 2 . Fk1,2 = 8 2d d

(3.179) (3.180)

(3.181)

(3.182)

Deren Differenz Fk zieht die bewegten Kondensatorplatten in Richtung der Nulllage zurück: Fk = Fk1 − Fk2 =

C0 V C0 V Δd C0 |u∼ | = |Δu∼ | = uk = K  u k . 4d d 2d 2d

(3.183)

Die Gesamtübertragungsfunktion der Rückführung entspricht also einem Proportionalglied mit dem Verstärkungsfaktor K =

C0 . 2d

(3.184)

Für das Kräftegleichgewicht der rückgekoppelten Anordnung ergibt sich: Fm = FC + Fk , m a = c Δd +

C0 C0 c 2d uk uk = + uk . 2d |u∼ | V 2d

(3.185) (3.186)

Bei einer großen Verstärkung V und somit einer Auslenkung von Δd ≈ 0 ist Fm ≈ Fk , wodurch die Differenzkraft FC zu null wird. Die Empfindlichkeit des gegengekoppelten Beschleunigungssensors ist gerade gleich der inversen Übertra-

3.3

Kennlinienfehler bei Abweichungen von den Normalbedingungen

95

gungskonstante der Rückführung: uk =

1 2md Fm = a. K C0

(3.187)

Die Schwankungen der Speisewechselspannung |u∼ | und der Federsteifigkeit c gehen nur noch um den Verstärkungsfaktor V reduziert in das Messergebnis ein. Die Masse des bewegten Kammes m, der Abstand in der Ruhelage d und die Kapazität C0 können mit den heute verfügbaren lithographischen Prozessen sehr präzise eingehalten werden. Beim gegengekoppelten Beschleunigungssensor kann auf eine übermäßig genaue Stabilisierung der Speisespannung |u∼ | verzichtet werden.

3.3.5 Superponierende Störgrößen bei Gegenkopplung Dem Messsystem seien additive Störungen z überlagert. Es soll nun untersucht werden, ob derartige Störeinflüsse durch eine Gegenkopplung reduziert werden können (Abb. 3.36).

Abbildung 3.36. Superponierende Störgrößen bei Gegenkopplung.

Bei großer Verstärkung V  1 ist die Kennlinie des gegengekoppelten Systems nach (3.131)  z y = K −1 u + . (3.188) Si Superponierende Störgrößen lassen sich demnach nicht grundsätzlich durch eine Gegenkopplung eliminieren. Sie bleiben im Wesentlichen erhalten.

3.3.6 Kompensation systematischer Störeinflüsse Das im Folgenden vorgestellte Verfahren kompensiert den Einfluss einer einzigen dominanten Störgröße z. Dazu muss der Einfluss dieser Störgröße auf die Messgröße a priori bekannt sein. Eine Möglichkeit zur Korrektur der Ausgangsgröße y in Abhängigkeit von der Störgröße z ist die in Abschnitt 2.3 behandelte Kennfeldinterpolation. Während bislang allein die physikalische Kennlinie y = f (u) Grundlage der Messkennlinie war,

96

3. Stationäres Verhalten von Messsystemen

wird nun die physikalische Abhängigkeit der Ausgangsgröße (3.189)

y = f (u, z)

vom Messsignal u und zusätzlich von der dominanten Störgröße z gleichzeitig vorab vermessen und in einem Kennfeld abgespeichert. Bei der tatsächlichen Messung wird die Störgröße z neben der eigentlichen Messgröße u erfasst und im gespeicherten Kennfeld die aktuelle Ausgangsgröße nach (2.122) interpoliert: y(u, z) ≈ y(ui , zj ) +

Δy(ui ) Δy(zj ) Δ2 y(ui , zj ) Δu + Δz + Δu Δz . Δui Δzj Δui Δzj

(3.190)

Das Verfahren entspricht einer fortlaufenden Adaption der Ausgangsgröße an die sich ändernde dominante Störgröße. Es können reproduzierbare Messergebnisse hoher Genauigkeit erzielt werden, wenn der Einfluss der Störgröße konstant bleibt, wenn es sich also um eine systematische Störgröße handelt.

3.3.7 Abschirmung Abschirmung zielt in der Messtechnik darauf ab, Störgrößen vom Messsystem fernzuhalten. Beispiele sind etwa die Thermostatisierung (d. h. Temperaturregelung) von Baugruppen, um Temperaturfehler zu unterdrücken, oder eine luftdichte Verpackung, um einen Einfluss der Luftfeuchte zu vermeiden. Auch elektrische und magnetische Abschirmungen gehören hierzu. Diese Maßnahme wird zwar oft eingesetzt, sie bringt jedoch häufig einen beträchtlichen Mehraufwand mit sich.

3.3.8 Superponierende Störgrößen in Messketten Das Signal u(t) wird in einer Messkette in einer Richtung übertragen. An den Schnittstellen seien jeweils Störungen zj überlagert (Abb. 3.37). Die Kennlinie des j-ten Gliedes sei durch (3.191)

yj = Sj yj−1 + zj

gegeben. Die Kennlinie der gesamten Anordnung erhält man, beginnend mit y0 = u, durch wiederholte Elimination der yj : yn = (Sn Sn−1 · · · S1 ) u + (Sn Sn−1 · · · S2 ) z1 + · · · + Sn zn−1 + zn .

+

+

+

Abbildung 3.37. Superponierende Fehler in einer Messkette.

(3.192)

+

3.3

Kennlinienfehler bei Abweichungen von den Normalbedingungen

97

Im absoluten Fehler F des Ausgangssignals summieren sich die Störungen zj der einzelnen Glieder jeweils multipliziert mit der Verstärkung vom (j+1)-ten bis zum letzten Glied der Kette:   n−1  n−1 . F = Sk+1 zj + zn . (3.193) j=1

k=j

Der Beitrag eines Übertragungsgliedes zum Fehler ist somit abhängig von seiner Position in der Kette! Mit der idealen Kennlinie y = u·

n .

(3.194)

Sj

j=1

erhält man für den relativen Fehler bezogen auf den Anzeigebereich y(u = d): FrA =

n 1  zj z2 zn z1 F = + + ··· + = j y d j=1 / S1 d S1 S2 d S1 S2 · · · S n d Sk

(3.195)

k=1

=

n 

FrAj .

(3.196)

j=1

Der relative Fehler FrA einer Messkette infolge superponierender Störgrößen setzt sich nach (3.196) additiv aus den relativen Fehlern der einzelnen Glieder zusammen. Bei einem mehrstufigen Verstärker ist immer Sj > 1. Der superponierende Fehler wird wirksam herabgesetzt, wenn die erste Stufe eine möglichst hohe Verstärkung S1  Sj , j > 1, aufweist. Oft lässt sich allerdings die Verstärkung der ersten Stufe nicht beliebig erhöhen. Dann ist darauf zu achten, dass in der ersten Stufe hochwertige Verstärker zum Einsatz kommen, die nur minimal von superponierenden Störgrößen (z. B. Drift) beeinflusst werden. Diese Regel ist beim Entwurf von Gleichspannungsverstärkern zu beachten. In der 1. Stufe wird oftmals ein großer Aufwand getrieben, um den Einfluss superponierender Störgrößen herabzusetzen, indem etwa durch eine Differenzschaltung (Abschnitt 3.2.4), durch Thermostatisierung (Abschnitt 3.3.7) oder durch einen „Zerhacker“ (Abschnitt 3.3.9) der Fehler der ersten Stufe herabgesetzt wird. Beispiel 3.10 (Zweistufiger Verstärker): Zum Bau eines zweistufigen Spannungsver-

stärkers stehen zwei Stufen mit gleicher Verstärkung Sa = Sb = 30 zur Verfügung. Bei der Stufe a ist mit einer Nullpunktdrift von 0,5 mV zu rechnen, bei der Stufe b mit einer von 1 mV. Mit (3.193) erhält man für die Anordnung a–b einen Fehler von F = (30 · 0,5 + 1) mV = 16 mV, bei der Anordnung b–a einen Fehler von F = (30 · 1 + 0,5) mV = 30,5 mV.

98

3. Stationäres Verhalten von Messsystemen

3.3.9 Zerhackerverstärker Der Zerhackerverstärker (engl. chopper amplifier) ist ein Modulationsverstärker zur driftfreien Verstärkung kleiner Gleichspannungen. Dadurch lässt sich insbesondere der Einfluss temperaturabhängiger Offsetspannungen am Verstärkereingang, wie sie bei realen Operationsverstärkern vorkommen, unterdrücken. Zu diesem Zweck wird das niederfrequente Eingangssignal u durch Modulation zu höheren Frequenzen hin verschoben.

Abbildung 3.38. Synchrone Zerhackung und Gleichrichtung.

Abbildung 3.38 zeigt die Wirkungskette des Zerhackerverstärkers. Die Modulatoren M werden zeitgleich angesteuert: sie arbeiten synchron zueinander. Die erste Modulation erfolgt durch Multiplikation des Eingangssignals mit einem mittelwertfreien Rechtecksignal p(t) (Abb. 3.39). Die Störung z(t) (z. B. der Offset des Operationsverstärkers) wird dabei nicht moduliert: y1 (t) = u(t) · p(t) + z(t) .

(3.197)

Die Umschaltfunktion p(t) habe die Frequenz ω0 = 2π/T (Abb. 3.39).

Abbildung 3.39. Umschaltfunktion p(t).

Die nochmalige Modulation des verstärkten Signals y1 mit der Umschaltfunktion p(t) gemäß Abb. 3.38 ergibt mit (3.197) y2 (t) = V y1 (t) p(t) = V u(t) p2 (t) + V z(t) p(t) = V u(t) + V z(t) p(t) .

 

(3.198)

=1

Das Eingangssignal u(t) wird unverzerrt übertragen, während die Störung z(t) mit der mittelwertfreien Umschaltfunktion p(t) moduliert bleibt. Die Störung kann deshalb mit einem einfachen Tiefpass weggefiltert werden, auch wenn der Erwartungs-

3.3

Kennlinienfehler bei Abweichungen von den Normalbedingungen

99

wert E{z(t)} = 0 ist, d. h. wenn die Störung einen konstanten superponierenden Anteil enthält. Die Umschaltfunktion p(t) erzeugt kein eigenes superponierendes Störsignal, da über einer Periode das Integral verschwindet: "T (3.199)

p(t) dt = 0 . 0

Der Übersichtlichkeit halber soll im Folgenden nur mit der Grundschwingung der Umschaltfunktion p(t) gerechnet werden. Die höherfrequenten Anteile der FourierReihe von p(t) und der Faktor 4/π werden hingegen vernachlässigt: p(t) ≈ cos(ω0 t) .

(3.200)

Modulation: Die Multiplikation des Eingangssignals u(t) mit der Umschaltfunktion p(t) entspricht einer Faltung von U (ω) mit P (ω) im Frequenzbereich. Wegen des harmonischen Charakters von (3.200) erscheint das Spektrum U (ω) des Eingangssignals an den Frequenzen der Modulationsschwingung ±ω0 [4]. Die überlagerte Störung z(t) greift am Eingang des Verstärkers an (Abb. 3.40):

y1 (t) = u(t) · cos(ω0 t) + z(t) ◦ • 1 1 Y1 (ω) = U (ω − ω0 ) + U (ω + ω0 ) + Z(ω) . 2 2

(3.201)

(3.202)

Abbildung 3.40. Bandbreite von Nutzsignal und Störsignal.

Synchrongleichrichtung: Die Synchrongleichrichtung entspricht einer nochmaligen Modulation mit p(t), die synchron zur ersten Modulation erfolgt. Unter Berücksichtigung der Verstärkung V erhält man:

y2 (t) = V u(t) cos2 (ω0 t) + V z(t) cos(ω0 t) .

(3.203)

100

3. Stationäres Verhalten von Messsystemen

Mit der Beziehung cos2 x = y2 (t) =

1 2

+

1 2

cos(2x) kann man das Signal schreiben als

V V u(t) + u(t) cos(2ω0 t) + V z(t) cos(ω0 t) . 2 2

(3.204)

Im Spektralbereich bedeutet das eine weitere Verschiebung des Störspektrums Z(ω) um ±ω0 (Abb. 3.41) und ein zusätzliches Auftreten des Nutzsignals bei ±2ω0 : Y2 (ω) =

V V V U (ω) + U (ω ± 2ω0 ) + Z(ω ± ω0 ) . 2 4 2

(3.205)

Tiefpass

Störspektrum

Abbildung 3.41. Nutzsignal- und Störspektrum beim Zerhackerverstärker.

Tiefpass: Aus dem Signal Y2 (ω) in (3.205) müssen jetzt noch die hochfrequenten Anteile entfernt werden. Dies geschieht mit einem Tiefpass mit der Filtercharakteristik 1 für |ω| ≤ |ωu | . (3.206) |T (ω)| = 0 für |ω| > |ω0 | − |ωz |

Hierin bezeichnen ωu die Bandbreite des Eingangssignals und ωz die der Störung (Abb. 3.40). Die hochfrequenten Störungen werden damit aus dem Ausgangssignal Y2 (ω) herausgefiltert: Y (ω) = Y2 (ω) · T (ω) =

V · U (ω) . 2

(3.207)

Um spektrale Überlappungen zu vermeiden, muss die Umschaltfrequenz ω0 größer als die Summe der Bandbreiten des Nutzsignals und des Störsignals sein: ω 0 > ωu + ω z .

(3.208)

Durch die Zerhackung wird die nutzbare Signalbandbreite ωu eingeschränkt. Zerhackerverstärker werden insbesondere verwendet, wenn ein Offset in der Verstärkereingangsstufe kompensiert werden soll.

3.4

Rückwirkung des Messsystems

101

3.4 Rückwirkung des Messsystems Beim Abgriff einer Messgröße durch das Messsystem findet ein Energiefluss zwischen Prozess und Messsystem statt, der die ursprüngliche Messgröße verfälschen kann. Die daraus resultierenden Fehler sollen im Folgenden untersucht werden. An die vorgesehene Messstelle werde eine Schnittstelle gelegt. Die Schnittstelle teilt den Prozess in Teil 1 und Teil 2 auf (Abb. 3.42). Es wird mit den verallgemeinerten, konjugierten Variablen Kraft F und Fluss Q gerechnet. Beispiele dafür sind Spannung und Strom oder Federkraft und Auslenkungsgeschwindigkeit. Die Messgröße sei die verallgemeinerte Kraft F1 .

Abbildung 3.42. Prozess und Messsystem.

Für die Flussvariablen ohne Messsystem gilt (3.209)

Q10 = Q20 bzw. mit Messsystem entsprechend Q 1 = Q2 + Q m

oder

Q10 + ΔQ1 = Q20 + ΔQ2 + Qm .

(3.210)

Für die Kraftvariablen ohne und mit Messsystem gilt: F10 = −F20

bzw.

F1 = −F2 = −Fm .

(3.211)

Die physikalischen Gesetzmäßigkeiten ergeben allgemeine Zusammenhänge zwischen Kraft und Flussgrößen der Form Qi = fi (F1 , F2 , . . .) .

(3.212)

Kleine Abweichungen der Flussgrößen ΔQi lassen sich dann näherungsweise durch i das Differential ∂Q ∂Fi ΔFi berechnen. Für das Messsystem wird ein linearer Zusammenhang Fm = Qm Wm zwischen den konjugierten Größen angenommen. Die Bezeichnung Wm des Proportionalitätsfaktors soll dabei auf den Innenwiderstand des

102

3. Stationäres Verhalten von Messsystemen

Messgerätes hinweisen. Gleichung (3.210) wird damit ∂Q1 ∂Q2 Fm ΔF1 = ΔF2 + ∂F1 ∂F2 Wm

(3.213)

oder mit (3.211) ∂Q1 ∂Q2 F1 ΔF1 = − ΔF1 − , ∂F1 ∂F2 Wm woraus man ΔF1 1 =− · F1 Wm



∂Q1 ∂Q2 + ∂F1 ∂F2

(3.214)

−1 (3.215)

erhält. Durch den endlichen Energie- oder Leistungsverbrauch des Messsystems ändert sich die Messgröße F1 um ΔF1 . Ist die Messgröße der verallgemeinerte Fluss, so lassen sich analoge Beziehungen herleiten. Beispiel 3.11 (Spannungsmessung an einem Spannungsteiler): An die Schnittstelle des

Spannungsteilers in Abb. 3.43 wird parallel zu Ra eine Messeinrichtung mit dem Innenwiderstand Rm gelegt. Es entsprechen sich F 1 = U1 ,

Q 1 = I1 ,

∂Q1 1 = , ∂F1 Ri

Wm = Rm ,

∂Q2 1 = , ∂F2 Ra

(3.216) (3.217)

was mit (3.215) 1 ΔU1 =− · U1 Rm



1 1 + Ri Ra

−1 (3.218)

ergibt. Der Fehler geht gegen null, wenn Rm → ∞ geht. Eine genaue Ableitung ergibt im Nenner noch einen zusätzlichen Term 1/Rm . Die Entwicklung von (3.215) nach den Kräften stellt lediglich eine Näherung dar, weil die höheren Glieder der

Abbildung 3.43. Spannungsteiler.

3.5

Literatur

103

Taylor-Reihe vernachlässigt wurden. Um eine Rückwirkung des Messsystems zu verhindern, muss bei einer Spannungsmessung die Spannung hochohmig abgegriffen werden. Bei einer Strommessung sind die Ströme dagegen niederohmig zu messen, um die Stromquelle minimal zu belasten.

Beispiel 3.12 (Längenmesstaster): Eine vergleichbare Abschätzung des Fehlers erhält

man, wenn eine Reihenschaltung vorliegt. Ein Werkstück der Länge x soll mit einem Längenmesstaster gemessen werden, der die Federcharakteristik Fm = cm xm hat (Abb. 3.44). Das Werkstück habe die Federkonstante c mit c  cm . Das System umfasst die beiden Baugruppen Werkstück und Längenmesstaster. Die Messgröße ist die Zustandsvariable x. Der stabile Arbeitspunkt ist erreicht, wenn beide Längen gleich sind: (3.219)

x = xm . Die beiden Federkräfte sind dann ebenfalls betragsmäßig gleich groß: F = −Fm

oder

F0 + ΔF = −Fm .



(3.220)

=0

Ohne Anlegen des Längenmesstasters ist die Kraft im Werkstück F0 = 0. Die Entwicklung der Kraftänderung ΔF nach dem Weg Δx ergibt ΔF = −Fm

∂F Δx = −cm x , ∂x

oder

(3.221)

woraus man mit ∂F/∂x = c die relative Wegänderung erhält: cm cm Δx =− =− . x ∂F/∂x c Für cm  c ist die Wegänderung erwartungsgemäß klein.

Abbildung 3.44. Längenmesstaster.

(3.222)

104

3. Stationäres Verhalten von Messsystemen

3.5 Literatur [1] R. C. Dorf und R. H. Bishop. Modern control systems. Pearson Prentice Hall, Upper Saddle River, 11. Auflage, 2008. [2] O. Fiedler. Strömungs- und Durchflußmeßtechnik. Oldenbourg Verlag, München, 1992. [3] O. Föllinger. Regelungstechnik: Einführung in die Methoden und ihre Anwendung. VDEVerlag, Berlin, 11. Auflage, 2013. [4] F. Puente León und H. Jäkel. Signale und Systeme. De Gruyter Oldenbourg, Berlin, 7. Auflage, 2019.

Kapitel 4 Zufällige Messfehler

4

4

4

¨ Zufallige Messfehler

4.1 Grundlagen der Wahrscheinlichkeitstheorie . . . . . . . 4.1.1 Wahrscheinlichkeitsdichte . . . . . . . . . . . . . ¨ 4.1.2 Wahrscheinlichkeitsdichten abgebildeter Großen 4.1.3 Momente der Statistik 1. Ordnung . . . . . . . . . 4.1.4 Momente der Statistik 2. Ordnung . . . . . . . . . 4.1.5 Korrelationskoeffizient . . . . . . . . . . . . . . . 4.1.6 Charakteristische Funktion . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

109 112 117 118 121 124 127

4.2 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 4.2.1 Haufigkeitsverteilung und Histogramm . . . . . . . . . ¨ 4.2.2 Schatzung von Mittelwert und Varianz . . . . . . . . . 4.2.2.1 Stichprobenmittelwert . . . . . . . . . . . . . 4.2.2.2 Stichprobenvarianz . . . . . . . . . . . . . . . 4.2.2.3 Numerische Berechnung von Mittelwert und Varianz . . . . . . . . . . . . . . . . . . . . . 4.2.3 Gesetz der großen Zahlen . . . . . . . . . . . . . . . . ¨ . . . . . . . . . . 4.2.4 Mittelung zur Storungsunterdr uckung ¨ 4.2.4.1 Lineare Kennlinie . . . . . . . . . . . . . . . . 4.2.4.2 Nichtlineare Kennlinie . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

128 128 129 131 132

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

134 135 137 137 138

4.3 Wichtige Wahrscheinlichkeitsverteilungen . . . . 4.3.1 Diskrete Wahrscheinlichkeitsverteilungen 4.3.1.1 Bernoulli-Verteilung . . . . . . . 4.3.1.2 Binomialverteilung . . . . . . . . 4.3.1.3 Poisson-Verteilung . . . . . . . . 4.3.2 Stetige Wahrscheinlichkeitsverteilungen . 4.3.2.1 Normalverteilung . . . . . . . . . 4.3.2.2 Zentraler Grenzwertsatz . . . . . 4.3.2.3 χ2 -Verteilung . . . . . . . . . . . 4.3.2.4 Student’sche t-Verteilung . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

139 139 139 140 141 141 141 143 145 149

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . . . . .

. . . . . . . . . .

4.4 Statistische Testverfahren . . . . . . . . . . . . . . . . . . . . . 4.4.1 Konfidenzintervall und statistische Sicherheit . . . . . 4.4.1.1 Konfidenzintervall bei bekannter Standardabweichung . . . . . . . . . . . . . . . . . . . ¨ 4.4.1.2 Konfidenzintervall bei geschatzter Standardabweichung . . . . . . . . . . . . . . . . . . . 4.4.2 Hypothesen und statistische Tests . . . . . . . . . . . 4.4.3 Signifikanztest fur ¨ den Stichprobenmittelwert . . . . . 4.4.4 χ2 -Anpassungstest . . . . . . . . . . . . . . . . . . . .

. . . . . . 150 . . . . . . 151 . . . . . . 151 . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

153 156 158 159

¨ 4.5 Qualitatssicherung . . . . . . . . . . . . . . . . 4.5.1 Beurteilung von Fertigungsprozessen . 4.5.2 Bestimmung der Ausfallrate . . . . . . . . . 4.5.3 Statistische Prozessuberwachung ¨

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

163 163 165 170

4.6 Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 4.7 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

4

4 Zufällige Messfehler Messfehler lassen sich aufgrund von Versuchen in systematische und zufällige Fehler einteilen. Erhält man bei wiederholten Versuchen das gleiche Ergebnis, spricht man von systematischen, bei voneinander im Betrag und Vorzeichen abweichenden Ergebnissen dagegen von zufälligen Fehlern. Die Fehler einer Messreihe können abhängig vom Standpunkt des Beobachters oder von den Versuchsbedingungen zu den zufälligen oder zu den systematischen Fehlern zählen. Dies macht man sich am besten an einem Beispiel klar. Beispiel 4.1 (Zufällige Fehler durch ungenaue Modellkenntnis): Ein Spannungsmesser

werde an ein Spannungsnormal angeschlossen und im Labor werden über den Tag verteilt mehrere Messungen durchgeführt. Die Fehler der Messungen unterscheiden sich im Betrag und im Vorzeichen. Sie sind also den zufälligen Fehlern zuzurechnen. Eine eingehende Untersuchung lässt vermuten, dass ein Zusammenhang mit Temperaturänderungen besteht. Die Versuche werden im Temperaturschrank mit einstellbaren Temperaturen wiederholt, ebenso werden die Messungen im Labor bei gleichzeitiger Registrierung der Temperatur noch einmal durchgeführt. Es zeigt sich, dass die Fehler eindeutig von der Raumtemperatur abhängen. Es sind jetzt systematische Fehler. Das Beispiel lässt etwas Grundsätzliches erkennen. Mit verfeinerten Versuchsbedingungen und besserer Systemkenntnis werden immer mehr zufällige Fehler zu systematischen. Selbst das Standardbeispiel der Wahrscheinlichkeitsrechnung für ein zufälliges Ereignis – das Würfeln – braucht grundsätzlich nicht zufällig zu sein. Sind die Geschwindigkeit, die Richtung, der Drehimpuls des Würfels beim Wurf bekannt, ließe sich das Ergebnis eigentlich nach den analytischen Gesetzen der Mechanik berechnen. Nach den Erkenntnissen der Chaostheorie führen allerdings winzige Abweichungen in den Anfangsbedingungen bereits zu völlig unterschiedlichen Systemzuständen, so dass die abweichenden Ergebnisse doch als zufällige Fehler gedeutet werden. Diese Art der Fehler kann mit den Methoden der Wahrscheinlichkeitsrechnung und der mathematischen Statistik untersucht und beschrieben werden.

4.1 Grundlagen der Wahrscheinlichkeitstheorie In diesem Abschnitt werden grundlegende Zusammenhänge der Wahrscheinlichkeitstheorie behandelt, die für eine stochastische Beschreibung von Messsystemen erforderlich sind. Für eine eingehende Darstellung anderer Aspekte der Wahrscheinlichkeitstheorie sei auf die zahlreichen hervorragenden Lehrbücher verwiesen [2–5].

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5_4

110

4. Zufällige Messfehler

Zur Definition der Wahrscheinlichkeit sei zunächst ein Zufallsexperiment betrachtet, welches ein zufälliges Versuchsergebnis ξ ∈ Ω aus einem Stichprobenraum Ω liefert. Der Stichprobenraum Ω entspricht der Menge sämtlicher Elementarereignisse ξ; das Wahrscheinlichkeitsmaß lässt sich jedoch ebenfalls auf Mengen E ⊆ Ω von Elementarereignissen anwenden. Die Wahrscheinlichkeit P (E) eines Ereignisses E wird nach Kolmogorov axiomatisch definiert. Definition 4.1: Wahrscheinlichkeit

Die Wahrscheinlichkeit P (E) eines Ereignisses E ∈ A ist ein Maß, welches die drei Kolmogorov-Axiome erfüllt: Nichtnegativität:

P (E) ≥ 1 ,

(4.1)

Normierung:

P (Ω) = 1 , ∞  ∞ 0  Ei = P (Ei ) , P

(4.2)

σ-Additivität:

i=1

Ei ∩ Ej = ∅ für i = j .

(4.3)

i=1

Dabei ist die Ereignismenge A ⊆ P(Ω) eine σ-Algebra, wobei P(Ω) die Potenzmenge von Ω bezeichnet. Eine nichtleere Menge A von Ereignissen E ⊆ Ω heißt σ-Algebra, wenn Ω ∈ A gilt und A bezüglich Komplementbildung und abzählbarer Vereinigungen abgeschlossen ist [4]. Mit der Definition der Wahrscheinlichkeit P spricht man bei dem Tripel (Ω, A, P ) von einem Wahrscheinlichkeitsraum.  Der Ausgang eines Messsystems ist abhängig vom zeitlichen Verlauf aller Eingangssignale (vgl. Abb. 1.3). Dabei werden Eingangs- und Ausgangsgrößen gewöhnlich deterministisch beschrieben, also als Funktionen der Signalamplitude über der Zeit. Allerdings ist der Verlauf der Störgrößen z(t) nicht genau bekannt, weshalb diese meist probabilistisch beschrieben werden. Anders als bei deterministischen Signalen, die im Zeitbereich oder im Frequenzbereich beschrieben werden [7], werden zufällige Signale (insbesondere Störsignale und störungsbehaftete Messsignale) etwas unverbindlicher im sogenannten „Amplitudenbereich“ dargestellt. Exemplarisch zeigt Abb. 4.1 den zeitlichen Verlauf eines Rechtecksignals und die zugehörige Beschreibung im Amplitudenbereich. Dabei werden den Amplitudenwerten x(t) Wahrscheinlichkeiten P (x) zugeordnet. Dass die Darstellung im Amplitudenbereich unverbindlicher und daher mit einem Informationsverlust verbunden ist, wird dadurch deutlich, dass aus den Amplitudenwahrscheinlichkeiten im rechten Diagramm kein Rückschluss auf den zeitlichen Verlauf des Signals möglich ist. Allgemein lassen sich diese einzelnen Amplituden- oder Signalwerte als Ergebnisse eines Zufallsexperimentes interpretieren, die mitunter auch diskret (z. B. beim Würfeln) oder nominal skaliert (beim Münzwerfen sind es etwa „Kopf“ oder „Zahl“) sein können. Um eine einheitliche Handhabung derartiger Größen im Amplitudenbereich zu ermöglichen, ist eine Abbildung der Ergebnismenge des Zufallsexperimentes –

4.1

Grundlagen der Wahrscheinlichkeitstheorie

111

Abbildung 4.1. Rechtecksignal im Zeitbereich (links) und im Amplitudenbereich (rechts).

d. h. der Menge der sogenannten Elementarereignisse ξi – auf eine geeignete Wertemenge erforderlich (meist handelt es sich hierbei um die Menge der reellen Zahlen). Diese Abbildung wird von einer sogenannten Zufallsvariablen x vorgenommen. Mit ihr ordnet man der Ergebnismenge eines Zufallsexperimentes reellwertige Zahlen zu. Definition 4.2: Zufallsvariable

Jede auf der Ergebnismenge eines Zufallsexperimentes definierte reelle Funktion wird als Zufallsvariable (engl. random variable) bezeichnet. Ist x das Symbol einer Zufallsvariablen, so bezeichnet man die reelle Zahl, die dem Elementarereignis ξ durch x zugeordnet wird, mit x(ξ); siehe Abb. 4.2. 

Abbildung 4.2. Zufallsexperiment, Elementarereignis und Zufallsvariable.

Der Begriff Zufallsvariable hat sich zwar etabliert, ist jedoch leider irreführend. Wie in Abb. 4.2 veranschaulicht, handelt es sich bei x(ξ) um keine Variable, sondern um eine wohldefinierte Funktion, welche die Elementarereignisse ξi auf die reellen Werte x(ξi ) abbildet.1 Der Zufall spielt sich alleine beim Zufallsexperiment ab. 1 Zur übersichtlicheren Darstellung wird bei Zufallsvariablen x(ξ) oftmals die Abhängigkeit vom Elementarereignis ξ unterdrückt. Zur Erinnerung, dass es sich weiterhin um Funktionen handelt, wird hier x in Schreibmaschinenschrift gesetzt. Die Werte x(ξi ), die x annehmen kann, sind allerdings deterministisch und werden kursiv gesetzt.

112

4. Zufällige Messfehler

Es gibt diskrete Zufallsvariable, die bei Zufallsexperimenten mit abzählbaren Elementarereignissen auftreten (z. B. das Würfeln oder das Werfen einer Münze). Kontinuierliche Zufallsvariable sind immer mit Experimenten verbunden, bei denen die Elementarereignisse nicht abzählbar sind (z. B. die Messung einer metrischen Größe). Dies ist in der Messtechnik der häufigste Fall. Beispiel 4.2 (Diskrete Zufallsvariable): In einem Würfelexperiment wird ein Würfel

zweimal geworfen; die Ergebnisse seien die Elementarereignisse ξ1 und ξ2 . Die Zufallsvariable x bezeichne die Summe der Augenzahlen: x(ξ1 , ξ2 ) = ξ1 + ξ2

für

ξ1 , ξ2 ∈ {1, 2, . . . , 6} .

(4.4)

x ist also eine diskrete Zufallsvariable, welche die Werte 2, 3, . . . , 12 annehmen kann.

Beispiel 4.3 (Kontinuierliche Zufallsvariable): Eine Spannungsquelle mit einer Nenn-

spannung U0 = 5 V wird vermessen. Die gemessenen Werte schwanken zufällig im Intervall 4,9 V ≤ u ≤ 5,1 V. Als Zufallsvariable wird die Abweichung x = u−U0 zur Nennspannung U0 betrachtet. Diese ist kontinuierlich und nimmt Werte im Intervall −0,1 V ≤ x ≤ 0,1 V an. Die folgenden Abschnitte widmen sich, sofern nichts anderes angegeben wird, den kontinuierlichen Zufallsvariablen.

4.1.1 Wahrscheinlichkeitsdichte Definition 4.3: Wahrscheinlichkeitsverteilung

Die Wahrscheinlichkeitsverteilung (kurz: Verteilung) Fx (x) = P (x ≤ x)

(4.5)

einer Zufallsvariablen x gibt die Wahrscheinlichkeit P an, mit welcher der Funktionswert von x kleiner oder höchstens gleich x ist. Die Wahrscheinlichkeitsverteilung besitzt die folgenden Eigenschaften: lim Fx (x) = 0 ,

x→−∞

lim Fx (x) = 1 .

x→∞

(4.6) (4.7)

Ferner ist Fx (x) eine monoton steigende Funktion, nimmt also mit wachsendem x nirgends ab. 

4.1

Grundlagen der Wahrscheinlichkeitstheorie

113

Anstelle der Verteilungsfunktion wird meist die Wahrscheinlichkeitsdichtefunktion fx (x) (auch Verteilungsdichtefunktion genannt) verwendet, die dieselbe Information enthält. Definition 4.4: Wahrscheinlichkeitsdichte

Die Wahrscheinlichkeitsdichte (kurz: Dichte) fx (x) einer Zufallsvariablen x ist wie folgt definiert: dFx (x) fx (x) = dx

"x mit

Fx (x) =

fx (u) du .

(4.8)

−∞

Die Wahrscheinlichkeitsdichte besitzt folgende Eigenschaften: fx (x) ≥ 0 ,

(4.9)

"∞ (4.10)

fx (x) dx = 1 , −∞

"b fx (x) dx = P (a < x ≤ b)

(4.11)

a

mit a, b ∈ IR.



Abbildung 4.3. Interpretation der Wahrscheinlichkeitsdichte.

Abbildung 4.3 zeigt exemplarisch die Wahrscheinlichkeitsdichte fx (x) einer Zufallsvariablen x. Die Wahrscheinlichkeitsdichte fx (x) beschreibt die Wahrscheinlichkeit pro Umgebungsbreite, dass x in einer schmalen Umgebung der Breite Δx um x liegt: fx (x) ≈

P (x −

Δx 2

0 rechtsschief. Für symmetrische Verteilungen gilt zwar x = 0, allerdings darf aus x = 0 nicht automatisch auf eine symmetrische Verteilung geschlossen werden.

4.1

Grundlagen der Wahrscheinlichkeitstheorie

121

Der Exzess εx =

E{(x − E{x})4 } − 3. σx4

(4.41)

basiert auf dem vierten zentralen Moment und ist ein Maß für die Abweichung einer unimodalen (d. h. eingipfligen) Verteilung von der Normalverteilung (vgl. Abschnitt 4.3.2). Durch die Subtraktion des rechten Terms wird der Exzess der Normalverteilung zu null (vgl. Abb. 4.7). Bei εx < 0 heißt eine Verteilung flachgipflig oder platykurtisch, bei εx > 0 heißt sie steilgipflig oder leptokurtisch.

Abbildung 4.7. Exzess εx zur Beurteilung der Verteilung von Zufallsvariablen.

4.1.4 Momente der Statistik 2. Ordnung Der Erwartungswert-Operator lässt sich ebenfalls auf das Produkt mehrerer Zufallsvariabler anwenden. Allgemein kann man auch hier Funktionen der Zufallsgrößen – insbesondere deren Potenzen – zulassen. Definition 4.14: Gemeinsames Moment

Das gemeinsame Moment zweier Zufallsvariabler ist wie folgt definiert: 1

k m

μxy,km = E x y

2

"∞ "∞ xk y m fxy (x, y) dx dy ,

=

(4.42)

−∞ −∞

wobei die Summe k + m die Ordnung des Momentes bezeichnet.



In der Anwendung beschränkt man sich in der Regel auf das einfache Produkt E{xy}, welches für k = m = 1 resultiert. Hierbei verwendet man meist das zweite zentrale Moment der Statistik 2. Ordnung, das als Kovarianz bezeichnet wird.

122

4. Zufällige Messfehler

Definition 4.15: Kovarianz

Die Kovarianz zweier Zufallsvariabler x und y ist durch "∞ "∞ Cxy = E{(x − μx )(y − μy )} =

(x − μx )(y − μy ) fxy (x, y) dx dy

(4.43)

−∞ −∞



gegeben.

Die Kovarianz sagt etwas über die Korrelation zwischen zwei Zufallsgrößen aus, also über ihre lineare stochastische Abhängigkeit. Definition 4.16: Unkorrelierte Größen

Zwei Zufallsvariable x und y sind unkorreliert, wenn für sie E{xy} = E{x} · E{y}

bzw.

Cxy = 0

gilt. Beide Aussagen sind nach (4.43) äquivalent. Insbesondere gilt für unkorrelierte Zufallsvariable xi und xj : 0 für i = j , Cxi xj = σx2 δij = σx2 für i = j .

(4.44) 

(4.45)

Die stochastische Unabhängigkeit schließt immer die Unkorreliertheit ein. Die Umkehrung gilt nur, falls beide Zufallsvariable normalverteilt sind, da hier die höheren Momente der Statistik 1. Ordnung nur vom ersten und zweiten Moment abhängig sind (Abschnitt 4.3.2). In allen anderen Fällen können zwei Zufallsvariable zwar unkorreliert, aber stochastisch abhängig sein. Beispiel 4.5 (Unkorreliertheit bei stochastischer Abhängigkeit): Betrachtet seien zwei

Zufallsvariable x und y, deren Verbundwahrscheinlichkeitsdichte fxy (x, y) aus der Addition vierer gleicher unimodaler Verteilungen mit verschiedenen Mittelwerten resultiert (Abb. 4.8 links). Die Zufallsgrößen x und y sind stochastisch abhängig, da sich fxy (x, y) nicht als Produkt der Randdichten fx (x) und fy (y) darstellen lässt (vgl. Abb. 4.8 rechts): fxy (x, y) = fx (x) · fy (y) .

(4.46)

Da aber Cxy = E{(x − μx )(y − μy )} = E{xy} = 0 gilt, sind die Zufallsgrößen x und y unkorreliert.

(4.47)

4.1

Grundlagen der Wahrscheinlichkeitstheorie

123

Abbildung 4.8. Höhenlinienplot der Verbunddichte fxy (x, y) zweier unkorrelierter, stochastisch abhängiger

Zufallsgrößen (links) und durch Marginalisierung berechnete Randdichten fx (x) und fy (y). Die Verbunddichte ist nicht als Produkt fx (x) · fy (y) der Randdichten darstellbar (rechts).

Satz 4.4: Addition von Zufallsvariablen

Bei Addition von n Zufallsvariablen xi , x=

n 

(4.48)

xi ,

i=1

folgt mit (4.36) für den Erwartungswert der Summenvariablen x: n 3 n   xi = E{xi } . μx = E{x} = E i=1

Für deren Varianz erhält man die sogenannte Bienaymé-Gleichung: ⎧ 2 ⎫ n n ⎨  ⎬  2 1 xi − E{xi } σx2 = E (x − E{x})2 = E ⎩ ⎭ i=1

=

n  n 

(4.49)

i=1

(4.50)

i=1

E{(xi − E{xi })(xj − E{xj })} =

i=1 j=1

n  n 

C xi xj .

(4.51)

i=1 j=1

Mit (4.45) folgt daraus der wichtige Sonderfall σx2 =

n 

σx2i

(4.52)

i=1

für paarweise unkorrelierte Größen.



124

4. Zufällige Messfehler

4.1.5 Korrelationskoeffizient Die Kovarianz Cxy sagt zwar etwas über die lineare Abhängigkeit stochastischer Größen aus, ist allerdings als Vergleichsmaß nicht geeignet, da sie nicht invariant gegenüber multiplikativen Skalierungen der Größen ist. Man führt daher einen Korrelationskoeffizienten als Maß für die stochastische Abhängigkeit von Zufallsgrößen ein. Definition 4.17: Korrelationskoeffizient

Der Korrelationskoeffizient ρxy zwischen den Größen x und y ist definiert zu ρxy =

Cxy E{(x − μx )(y − μy )} = . σx σy E{(x − μx )2 } E{(y − μy )2 }

(4.53)

Der Wertebereich erstreckt sich auf −1 ≤ ρxy ≤ 1 ,

(4.54)

wobei ρxy bei starrer Bindung von x und y den Wert +1 oder −1 und bei unkorrelierten Größen den Wert 0 annimmt. 

Beweis 4.2 (Wertebereich des Korrelationskoeffizienten): Für den Beweis ist es hilf-

reich, die Zufallsgrößen x und y als verallgemeinerte Vektoren in einem unitären Raum zu interpretieren [7]. Für sie werden das Innenprodukt x, y = E{(x − μx )(y − μy )}

(4.55)

durch die Kovarianz und die Norm   x = x, x = E{(x − μx )2 }

(4.56)

durch die Standardabweichung definiert. Mit der Schwarz’schen Ungleichung | x, y | ≤ x · y

(4.57)

kann man nun die Kovarianzfunktion abschätzen: 7  |E{(x − μx )(y − μy )}| ≤ E{(x − μx )2 } E{(y − μy )2 } , |Cxy | ≤ σx · σy .

(4.58) (4.59)

Mit dem Korrelationskoeffizienten ρxy gilt gerade das Gleichheitszeichen: Cxy = ρxy · σx σy

mit

|ρxy | ≤ 1 .

(4.60)

1. Fall: Starre lineare Bindung zwischen den Größen: y = kx + a,

k, a ∈ IR .

(4.61)

4.1

Grundlagen der Wahrscheinlichkeitstheorie

125

Der Korrelationskoeffizient ist dann E{(x − μx ) · k · (x − μx )} = ±1 . ρxy =  E{(x − μx )2 } · k 2 · E{(x − μx )2 }

(4.62)

Für die Kovarianz gilt in diesem Fall (4.63)

Cxy = σx σy . 2. Fall: Unkorrelierte oder stochastisch unabhängige Größen: ⇒

Cxy = 0

(4.64)

ρxy = 0 .

Damit ist die letzte Aussage von Def. 4.17 bewiesen.

Beispiel 4.6 (Korrelation von Messwerten): In der Tabelle 4.1 ist eine Messreihe von

n = 12 Wertepaaren xi , yi dargestellt, die Realisierungen der Zufallsvariablen x und y sind. Es soll der Korrelationskoeffizient zwischen x und y berechnet werden. Da nur einzelne Messwerte vorliegen, müssen die statistischen Kennwerte gemäß Abschnitt 4.2 geschätzt werden. Die Erwartungswerte können durch die Stichprobenmittelwerte (Abschnitt 4.2.2.1) geschätzt werden: 1 xi = 5,14 , n i=1 n

μ ˆx =

1 yi = 2,57 . n i=1 n

μ ˆy =

(4.65)

Die Kovarianz kann durch die Stichprobenkovarianz geschätzt werden: 1  (xi − μ ˆx )(yi − μ ˆy ) = 4,8 . n − 1 i=1 n

Cxy ≈

(4.66)

Analog erhält man für die Standardabweichungen (Abschnitt 4.2.2.2): 8 9 n 9 1  σx ≈ : (xi − μ ˆx )2 = 3,08 , n − 1 i=1 8 9 9 σy ≈ :

1  (yi − μ ˆy )2 = 1,56 . n − 1 i=1

(4.67)

n

(4.68)

Tabelle 4.1. Messwertreihe.

xi

0,8

1,3

2,1

2,8

3,4

4,9

5,5

6,6

7,2

8,1

9,4

9,6

yi

0,3

0,75

1,15

1,2

1,8

2,35

2,65

3,5

3,5

4,15

4,6

4,9

126

4. Zufällige Messfehler

Abbildung 4.9. Messwertreihe aus Tab. 4.1.

Daraus berechnet sich der Korrelationskoeffizient zu ρxy =

Cxy ≈ 0,997 . σx σy

(4.69)

Die Wertepaare sind stark voneinander abhängig, was auch aus ihrer grafischen Darstellung (Abb. 4.9) ersichtlich ist. Ein hoher Korrelationskoeffizient ρxy sagt lediglich etwas über die lineare stochastische Abhängigkeit zwischen den Größen x und y aus. Einen kausalen Zusammenhang kann allerdings daraus nicht abgeleitet werden, was folgendes Beispiel verdeutlichen soll. Beispiel 4.7 (Korrelation und kausaler Zusammenhang): Zwischen der Anzahl x der

Geburten pro Monat und der Zahl y der sich niedergelassenen Störche im gleichen Monat bestehe über das ganze Jahr eine stochastische Abhängigkeit. Der Korrelationskoeffizient liege z. B. im Intervall 0,5 ≤ ρxy ≤ 1. Dann darf daraus nicht der kausale Zusammenhang geschlossen werden, die Störche seien der Grund für die Geburten.

4.1

Grundlagen der Wahrscheinlichkeitstheorie

127

4.1.6 Charakteristische Funktion Definition 4.18: Charakteristische Funktion

Die charakteristische Funktion Φx (f ) einer Zufallsvariablen x ist durch den Erwartungswert 1

Φx (f ) = E e

j2πf x

2

"∞ =

fx (x) ej2πf x dx = F−1 {fx (x)} .

(4.70)

−∞



definiert.

Offensichtlich entspricht (4.70) der inversen Fourier-Transformierten der Wahrscheinlichkeitsdichte fx (x). Da aber fx (x) stets reell ist, kann (4.70) ebenfalls als die komplex konjugierte Fourier-Transformierte von fx (x) aufgefasst werden, weshalb f als die mit x korrespondierende Frequenz interpretiert werden kann. Insbesondere gilt: |Φx (f )| = |F{fx (x)}| .

(4.71)

Wegen der Normierung und der Nichtnegativität des Wahrscheinlichkeitsmaßes [7] gelten für die charakteristische Funktion die folgenden Zusammenhänge: |Φx (f )| ≤ 1 .

Φx (0) = 1 ,

(4.72)

Für die charakteristische Funktion gibt es zwei wichtige Anwendungsbereiche: die Berechnung von Momenten und die Beschreibung von Summen von Zufallsvariablen. Berechnung von Momenten: Wahrscheinlichkeitsdichten können – zumindest näherungsweise – durch die Angabe weniger Momente beschrieben werden. Die Momente können leicht aus der charakteristischen Funktion gewonnen werden. Durch m-fache Differentiation von (4.70) nach der Frequenz f ergibt sich:

dm Φx (f ) = df m

"∞ (j2πx)m · fx (x) ej2πf x dx .

(4.73)

−∞

Für f = 0 lässt sich daraus das m-te Moment der Zufallsvariablen x wie folgt berechnen: 1

μx,m = E x

m

2

"∞ xm fx (x) dx =

= −∞

 dm Φx (f )  1 . (j2π)m df m f =0

(4.74)

Addition von Zufallsvariablen: Werden n unabhängige Zufallsvariable xi addiert, so n erhält man nach Satz 4.2 auf S. 116 die Dichte der Summe x = i=1 xi durch Faltung

128

4. Zufällige Messfehler

der einzelnen Wahrscheinlichkeitsdichten: fx (x) = fx1 (x) ∗ · · · ∗ fxn (x) .

(4.75)

Die Faltung entspricht einer Multiplikation im Frequenzbereich, so dass man für die charakteristische Funktion eines Summensignals folgenden Ausdruck erhält: 1

Φx (f ) = E e



j2πf (

i

xi )

2

1

=E e

j2πf x1

2

n 1 j2πf xn 2 . · ... ·E e = Φxi (f ) .

(4.76)

i=1

4.2 Stichproben In der Praxis sind die Größen aus der Wahrscheinlichkeitstheorie meist nicht bekannt. Vor allem die Wahrscheinlichkeitsdichte fx (x), aus der sich Kenngrößen wie der Mittelwert μx und die Varianz σx2 berechnen lassen, ist nicht gegeben. Man muss sich daher mit einer Stichprobe behelfen. Eine Stichprobe ist ein Zufallsexperiment, bei dem n Messwerte xi , i ∈ {1, . . . , n}, aus einer Grundgesamtheit zur weiteren statistischen Analyse herangezogen werden. Mit den Werten xi versucht man, Schätzwerte für die zugrundeliegende Wahrscheinlichkeitsdichte, den Mittelwert und die Varianz der Grundgesamtheit zu ermitteln.

4.2.1 Häufigkeitsverteilung und Histogramm Liegt die Wahrscheinlichkeitsdichte fx (x) einer Messgröße x nicht vor, so kann man diese anhand einer repräsentativen Stichprobe schätzen. Das Ergebnis der Schätzung ist eine empirische Häufigkeitsverteilung, die tabellarisch oder grafisch in Form eines sogenannten Histogramms (Abb. 4.10) angegeben werden kann. Zur Darstellung des Histogramms müssen die Elemente xi der Stichprobe nach Größenklassen der Breite Δx sortiert werden, ν · Δx ≤ xi < (ν + 1)Δx ,

(4.77)

wobei ν den Klassenindex bezeichnet. Von den n Stichprobenelementen werden diejenigen nν der Klasse ν zugeordnet, deren Werte xi im Intervall (4.77) liegen. Die relative Häufigkeit nν /n der Messwerte in der Klasse ν bezogen auf die Klassenbreite Δx ergibt die Häufigkeitsverteilung hν =

nν , n · Δx

(4.78)

die durch den Bezug unabhängig von der Klassenbreite wird. Die Gesamtzahl aller Messwerte ist n=

m  ν=1

nν .

(4.79)

4.2

Stichproben

129

Abbildung 4.10. Beispiel für ein Histogramm.

Der in Klassen einzuteilende Bereich von x sollte alle Messwerte umfassen. Die Klassenbreite Δx ist so zu wählen, dass der Polygonzug durch die Klassenmitte einigermaßen „glatt“ ist (Abb. 4.10). Für normalverteilte Zufallsgrößen (Abschnitt 4.3.2) gestattet die folgende Formel eine optimale Wahl der Klassenbreite im Sinne des mittleren quadratischen Fehlers [8]: Δx =

3,49 sx √ , 3 n

(4.80)

wobei sx die Standardabweichung der Stichprobe bezeichnet (Abschnitt 4.2.2.2). Für jedes Histogramm ist die Fläche A zwischen Kurve und Abszisse gleich eins. Die Treppenkurve in Abb. 4.10 ist flächengleich mit dem Polygonzug: A=

m  ν=1

hν Δx =

m 

m nν 1 Δx = nν = 1 . n · Δx n ν=1 ν=1

(4.81)

Sind einem konstanten Signal keine Störungen überlagert, dann fallen alle Messwerte der Stichprobe in eine Klasse. Bei beträchtlichen Schwankungen der Messwerte wird das Histogramm breiter und flacher. Die Breite des Histogramms ist also ein Maß für die Streubreite.

4.2.2 Schätzung von Mittelwert und Varianz Ist die Wahrscheinlichkeitsverteilung einer Zufallsvariablen nicht bekannt, so können die Momente als Parameter der Verteilung nicht nach (4.37) berechnet werden. In der Praxis wird man vielmehr eine Stichprobe mit einer begrenzten Anzahl von Messwer-

130

4. Zufällige Messfehler

ten haben. Daraus kann man den Stichprobenmittelwert und die Stichprobenvarianz als Schätzwerte des wahren Mittelwertes bzw. der wahren Varianz der Verteilung berechnen. Dabei stellt sich die Frage, wie gut eine Schätzfunktion (auch: Schätzer) überhaupt ist. Zur Bewertung von Schätzern werden folgende Kriterien herangezogen: Erwartungstreue, Konsistenz und Effizienz. Im Folgenden wird davon ausgegangen, dass die zu schätzende Größe deterministisch und konstant ist. Definition 4.19: Erwartungstreue

Einen Schätzer2 x ˆ nennt man erwartungstreu, wenn bei wiederholten Stichproben der wahre Wert xw im Mittel richtig geschätzt wird: E{ˆ x} = xw .

(4.82)

Die Differenz zwischen dem Erwartungswert E{ˆ x} des Schätzers und dem wahren Wert xw ist der systematische Fehler (engl. bias). Erwartungstreue Schätzer weisen somit keinen systematischen Fehler auf. 

Definition 4.20: Asymptotische Erwartungstreue

Ein Schätzer x ˆ heißt asymptotisch erwartungstreu, wenn mit wachsendem Stichprobenumfang n der Schätzwert gegen den wahren Wert konvergiert: x} = xw . lim E{ˆ

(4.83)

n→∞

Jeder erwartungstreue Schätzer ist auch asymptotisch erwartungstreu, aber nicht umgekehrt. 

Definition 4.21: Konsistenz

Ein Schätzer x ˆ heißt konsistent, wenn mit wachsendem Stichprobenumfang n die Wahrscheinlichkeit P , mit der die Schätzung x ˆ vom wahren Wert xw abweicht, gegen null konvergiert, x − xw  ≥ ε} = 0 lim P {ˆ

n→∞

∀ ε > 0,

(4.84)

und damit die Varianz des Schätzers gegen null geht: lim σˆx2 = 0 .

n→∞

Konsistente Schätzer werden mit wachsendem Stichprobenumfang n genauer.

2

Schätzwerte werden oft mit einem Dach (^) gekennzeichnet.

(4.85) 

4.2

Stichproben

131

Definition 4.22: Effizienz

Ein Schätzer x ˆ heißt effizient (auch: wirksam), wenn er aus allen erwartungstreuen Schätzern die kleinste Varianz hat. 

4.2.2.1 Stichprobenmittelwert Ist die Wahrscheinlichkeitsdichte fx (x) einer Zufallsgröße nicht bekannt, so kann der wahre Mittelwert μx durch den Stichprobenmittelwert geschätzt werden. Definition 4.23: Stichprobenmittelwert

Der Stichprobenmittelwert aus n Werten xi , i ∈ {1, . . . , n}, berechnet sich zu 1 xi . n i=1 n

x ˆ=

(4.86)

Der Stichprobenmittelwert x ˆ ist ein Schätzwert des wahren Mittelwertes μx und ist damit selbst wieder eine stochastische Größe.  Nun soll der Stichprobenmittelwert (4.86) auf Erwartungstreue und Konsistenz hin überprüft werden. Der Erwartungswert ist n 3 n 1 1 1 xi = E{xi } = n μx = μx . (4.87) E{ˆ x} = E n i=1 n i=1   n μx

Der Erwartungswert des Stichprobenmittelwertes x ˆ ist gerade der wahre Mittelwert ˆ von μx ist somit erwartungstreu. Die Varianz des Stichprobenμx . Die Schätzung x mittelwertes ist 1 2 x − μx )2 (4.88) σˆx2 = E (ˆ ⎫ ⎫ ⎧ ⎧    2 2 n n ⎬ ⎬ ⎨ 1 ⎨ 1 (4.89) xi − μx (xi − μx ) =E =E ⎭ ⎭ ⎩ n ⎩ n i=1

=

1 n2

n  n 

E {(xi − μx )(xj − μx )} =

i=1 j=1

i=1

n n 1  Cx x . n2 i=1 j=1 i j

(4.90)

Für die Kovarianz Cxi xj lassen sich wieder die beiden Extremfälle der starren Bindung und der stochastischen Unabhängigkeit unterscheiden. 1. Starre Bindung zwischen xi und xj : Für gleiche Varianzen von xi und xj gilt nach (4.63) Cxi xj = σxi σxj = σx2 .

(4.91)

132

4. Zufällige Messfehler

Damit erhält man σˆx2 =

1 2 2 n σx n2



σˆx2 = σx2 .

(4.92)

Bei starrer Bindung der Messwerte ist die Varianz des Stichprobenmittelwertes gleich der Varianz der Messwerte. Mehrere Messwerte enthalten somit nicht mehr Information als ein einziger Messwert. Die Schätzung ist in diesem Fall nicht konsistent. 2. Stochastisch unabhängige Messwerte xi und xj für i = j: Nach (4.45) gilt: Cxi xj = σx2 δij .

(4.93)

Die Varianz des Stichprobenmittelwertes wird damit σˆx2 =

n n n 1  2 1  2 σx2 . σ δ = σ = ij x x n2 i=1 j=1 n2 i=1 n

(4.94)

Für stochastisch unabhängige Messgrößen nimmt die Varianz des Stichprobenmittelwertes σˆx2 mit wachsendem Stichprobenumfang n gegen null ab. Der Stichprobenmittelwert x ˆ strebt dann gegen den wahren Mittelwert μx . Die Schätzung ist konsistent. √ Die Abnahme der Standardabweichung eines Schätzers mit 1/ n gemäß (4.94) ist typisch für die meisten praktisch relevanten Aufgabenstellungen.

4.2.2.2 Stichprobenvarianz Bei den meisten messtechnischen Aufgaben ist die Wahrscheinlichkeitsdichte fx (x) nicht bekannt. Es liegen lediglich einzelne Messwerte xi und der Stichprobenmittelwert x ˆ vor. Die unbekannte Varianz σx2 wird durch die Stichprobenvarianz s2x = σ ˆx2 geschätzt. Definition 4.24: Stichprobenvarianz

Die Stichprobenvarianz ist wie folgt definiert: 1  1  2 (xi − x ˆ )2 = (x − 2 xi x ˆ+x ˆ2 ) n − 1 i=1 n − 1 i=1 i

(4.95)

=

1  1 1  2 nx ˆ2 xi − 2 x ˆ xi + n − 1 i=1 n − 1 i=1 n−1

(4.96)

=

1  2 n x ˆ2 . x − n − 1 i=1 i n−1

(4.97)

n

s2x =

n

n

n

n

4.2

Stichproben

133



Ihre Wurzel sx wird Standardabweichung der Stichprobe genannt.

Im Folgenden soll der Zusammenhang zwischen der Stichprobenvarianz s2x und der wahren Varianz σx2 der Verteilung betrachtet werden. Die Stichprobenvarianz s2x selbst ist wieder eine Zufallsgröße. Ihr Erwartungswert ist 3 n 1 22 1  2 (xi − x ˆ) (4.98) E sx = E n − 1 i=1 3 n  1 2 (4.99) E ((xi − μx ) − (ˆ x − μx )) = n−1 i=1 n 3 n   1 2 2 = E (xi − μx ) − 2 (xi − μx )(ˆ x − μx ) + n (ˆ x − μx ) . (4.100) n−1 i=1 i=1 Formt man den Stichprobenmittelwert (4.86) um zu n (ˆ x − μx ) =

n 

(xi − μx )

(4.101)

i=1

und setzt dies in die obige Gleichung ein, so erhält man  n  < < < ; ;  ; 1 22 1 2 2 2 E (xi − μx ) − 2n E (ˆ x − μx ) +n E (ˆ x − μx ) . (4.102) E sx = n − 1 i=1      

σx2

σˆx2

σˆx2

Mit (4.90) folgt schließlich der Erwartungswert der Stichprobenvarianz 1 2 n (σ 2 − σˆx2 ) . E s2x = n−1 x

(4.103)

Man kann wieder die beiden Extremfälle der Messwertstatistik unterscheiden. 1. Starre Bindung zwischen xi und xj : Nach (4.92) gilt σˆx2 = σx2 und damit 1 2 E s2x = 0 .

(4.104)

Der Erwartungswert der Stichprobenvarianz ist bei starrer Bindung der Messwerte null. Das liegt daran, dass der Stichprobenmittelwert x ˆ die gleiche Varianz wie die Messwerte selbst aufweist. Daher ist in diesem Fall die Stichprobenvarianz als Schätzung der wahren Varianz unbrauchbar. 2. Stochastisch unabhängige Messwerte xi und xj für i = j: Nach (4.94) gilt σˆx2 = σx2 /n und damit   1 2 1 n σx2 1 − = σx2 . E s2x = n−1 n

(4.105)

134

4. Zufällige Messfehler

Für stochastisch unabhängige Messwerte ist die Stichprobenvarianz s2x eine erwartungstreue Schätzung für die Varianz σx2 der Verteilung. Damit die Schätzung der Stichprobenvarianz erwartungstreu ist, wurde diese mit dem Faktor 1/(n − 1) anstelle von 1/n versehen. Bei Einzelmessungen (n = 1) kann allerdings keine Stichprobenvarianz ermittelt werden. Bei der Messung abhängiger Werte ist die Stichprobenvarianz s2x kleiner oder höchstens gleich der Varianz der Wahrscheinlichkeitsverteilung σx2 . Beispiel 4.8 (Abweichung der Stichprobenvarianz): Ein Messgerät zeige im Prüffeld

eine sehr geringe Stichprobenvarianz. Beim eigentlichen Einsatz in einer verfahrenstechnischen Anlage liege dagegen die Stichprobenvarianz deutlich höher. Dies kann als Indiz für einen stochastischen Fehler gewertet werden, der nur in der Anlage und nicht im Prüffeld auftritt. Die Messwerte im Prüffeld sind dann weniger voneinander unabhängig als die Messwerte in der Anlage. Die im Prüffeld ermittelte Stichprobenvarianz s2x schätzt die Varianz σx2 der Messwerte im Prozess zu klein. Manchmal sind auch die höheren Momente von Interesse. Die Schiefe (4.40) kann aus einer Stichprobe wie folgt erwartungstreu geschätzt werden:  1 n · (xi − x ˆ )3 . 3 sx (n − 1)(n − 2) i=1 n

ˆx =

(4.106)

Sie ist ein Maß für die Asymmetrie der Messwerteverteilung und wird bei symmetrischen Verteilungen zu null. Der Exzess (4.41) ist ein Maß für die Wölbung der Messwerteverteilung. Dessen erwartungstreuer Schätzwert lautet:  1 n (n + 1) 3 (n − 1)2 4 . (xi − x ˆ) − εˆx = 4 · sx (n − 1)(n − 2)(n − 3) i=1 (n − 2)(n − 3) n

(4.107)

4.2.2.3 Numerische Berechnung von Mittelwert und Varianz Bei der numerischen Berechnung des Mittelwertes und der Varianz ist es oft vorteilhaft, anstelle einer Addition vieler großer Zahlen xi mit den Abweichungen Δxi von einem Näherungswert x0 zu rechnen: Δxi = xi − x0 .

(4.108)

Der Stichprobenmittelwert (4.86) wird dann 1 Δxi n i=1 n

x ˆ = x0 +

1 Δxi . n i=1 n



Δˆ x=x ˆ − x0 =

(4.109)

4.2

Stichproben

135

Die Stichprobenvarianz (4.95) wird durch Ausmultiplizieren des Binoms und Einsetzen der Ausdrücke für xi und x ˆ zu 1  2 (xi − x ˆ) n − 1 i=1  n   1 2 2 = x − nx ˆ n − 1 i=1 i   n  1 2 2 = (x0 + Δxi ) − n (x0 + Δˆ x) n − 1 i=1   n n   1 2 2 2 2 = nx0 + 2x0 Δxi + (Δxi ) − nx0 − 2nx0 Δˆ x − n(Δˆ x) n−1 i=1 i=1

  n

s2x =

1 = n−1

 n 

nΔˆ x 2

(Δxi ) − n (Δˆ x)

(4.110)

(4.111)

(4.112)

(4.113)

 2

(4.114)

.

i=1

Dadurch wird die Stichprobenvarianz auf die Quadratsumme der Abweichungen Δxi und den Mittelwert der Abweichungen Δˆ x zurückgeführt.

4.2.3 Gesetz der großen Zahlen Die Wahrscheinlichkeitsdichten können nur selten aus den Versuchsbedingungen hergeleitet werden. Öfter kann zumindest aus dem Histogramm der Typ der Verteilung angegeben werden. Die für die Verteilung wichtigen Parameter müssen dann aus Stichproben experimentell bestimmt werden. Die Ergebnisse der Wahrscheinlichkeitsrechnung, hergeleitet mit Hilfe der Mengen- und Maßtheorie, gelten streng. Die Verbindung dieser Theorie zu Messergebnissen aus Stichproben geschieht über verschiedene Grenzwertsätze, z. B. über das Bernoulli’sche Gesetz der großen Zahlen [2, 11]. Es sei x eine Zufallsvariable mit der Wahrscheinlichkeitsdichte fx (x). Die Wahrscheinlichkeit für das Ereignis |x − μx | ≥ ε ist μ"x −ε

P (|x − μx | ≥ ε) =

"∞

fx (x) dx + −∞

fx (x) dx .

(4.115)

μx +ε

Mit |x − μx | ≥ ε ist (x − μx )2 ≥ 1, ε2

(4.116)

136

4. Zufällige Messfehler

so dass man damit die Wahrscheinlichkeit abschätzen kann: μ"x −ε

P (|x − μx | ≥ ε) ≤ −∞

1 ≤ 2 ε

"∞

(x − μx )2 fx (x) dx + ε2

(x − μx )2 fx (x) dx ε2

(4.117)

μx +ε

"∞ (x − μx )2 fx (x) dx = −∞

σx2 . ε2

(4.118)

Die Ungleichung (4.117) ist die Tschebyscheff’sche Ungleichung. Sie besagt, dass für eine Zufallsvariable x mit endlicher Varianz σx2 die Realisierungen x mit einer gewissen Wahrscheinlichkeit um den Erwartungswert μx liegen. Diese Ungleichung kann nun auf den Stichprobenmittelwert x ˆ als Zufallsvariable mit der Varianz (4.94) angewandt werden: P (|ˆ x − μx | ≥ ε) ≤

σˆx2 σx2 = . 2 ε n · ε2

(4.119)

Mit größer werdendem Stichprobenumfang n strebt die Wahrscheinlichkeit P (|ˆ x− ˆ um mehr als die beliebig kleine Schranke ε μx | ≥ ε) gegen null, dass die Schätzung x vom wahren Mittelwert μx abweicht. Die Versuchsergebnisse aus großen Stichproben nähern sich also den Ergebnissen der Wahrscheinlichkeitsrechnung. Einen entsprechenden Zusammenhang kann man zwischen der Häufigkeitsverteilung einer Stichprobe h(x) und der Wahrscheinlichkeitsdichte fx (x) herstellen. Dazu werden Indikatorvariablen Jνi definiert, die beschreiben, ob ein Ereignis xi einer bestimmten Klasse ν angehört: 1 für νΔx ≤ xi < (ν + 1)Δx . (4.120) Jνi = 0 sonst Die Ereignisse seien stochastisch unabhängig. Die Wahrscheinlichkeit dafür, dass ein Ereignis der Klasse ν angehört, wird nach (4.78) durch die relative Häufigkeit geschätzt und lässt sich als Stichprobenmittelwert der Indikatorvariablen Jνi darstellen: 1 nν = Jνi . n n i=1 n

Δx hν =

(4.121)

Durch Erwartungswertsbildung erhält man die Wahrscheinlichkeit fx (xν )Δx: n 3 n 1 1 Jνi = E{Jνi } = fx (xν )Δx . (4.122) E{Δx hν } = E

  n n i=1

i=1

fx (xν )Δx

Mit dem Mittelwertsatz der Integralrechnung lässt sich zeigen, dass im Intervall [νΔx, (ν + 1)Δx] ein xν existiert, das obige Gleichung erfüllt.

4.2

Stichproben

137

Der Schätzer für die Häufigkeitsverteilung h(x) hat die gleiche Struktur wie der Schätzer für den Stichprobenmittelwert. Für die Varianz der Häufigkeitsverteilung h(x) erhält man daher bei unabhängigen Ereignissen nach (4.94): E{(h(x) − fx (x))2 } =

σJ2 . n

(4.123)

Einsetzen von h(x) in die Tschebyscheff’sche Ungleichung (4.117) ergibt das Bernoulli’sche Gesetz der großen Zahlen: P (|h(x) − fx (x)| ≥ ε) ≤

2 σJ2 1 1 2 = E (h(x) − f (x)) . x ε2 n ε2

(4.124)

Mit wachsendem Stichprobenumfang n geht also die Häufigkeitsverteilung h(x) in die Wahrscheinlichkeitsdichte fx (x) über.

4.2.4 Mittelung zur Störungsunterdrückung Vielfach sind einer deterministischen Messgröße u zufällige Störungen e additiv überlagert. Die Unterdrückung derartiger Störungen kann durch eine Mittelung von n Messwerten yi nach Def. 4.23 erfolgen. Um diesen Ansatz zu untersuchen, soll unterschieden werden, ob die Kennlinie des Messsystems linear ist oder nicht.

4.2.4.1 Lineare Kennlinie Zunächst sei angenommen, dass das Messsystem eine lineare Kennlinie mit der Empfindlichkeit Si aufweist. Der Anzeigewert lautet dann: y = Si (u + e) .

(4.125)

Um das Ergebnis der Mittelung zu untersuchen, wird der Erwartungswert von y gebildet: μy = E{y} = E{Si (u + e)} = Si (u + μe ) .

(4.126)

Es können zwei Fälle unterschieden werden: 1. Die Störung e ist mittelwertfrei: E{e} = μe = 0 .

(4.127)

Der Mittelwert des Ausgangssignals μy entspricht dem idealen Anzeigewert Si u. Durch die Mittelung wird also das Störsignal e unterdrückt. Die Mittelung ist die einfachste Methode zur Bestimmung des wahren Wertes der Messgröße, wenn diese von mittelwertfreien Störungen überlagert ist. 2. Die Störung habe einen endlichen Mittelwert: E{e} = μe = 0 .

(4.128)

138

4. Zufällige Messfehler

Der Mittelwert der Störung Si μe am Ausgang des Messsystems kann als deterministische additive Störung (systematischer Fehler) vom Ausgangssignal subtrahiert werden: y ˜ = y − Si μe = Si (u + e − μe ) .

(4.129)

Die in y ˜ verbleibende Störung Si (e − μe ) ist dann wieder mittelwertfrei, so dass eine Mittelung zur Störungsunterdrückung herangezogen werden kann. Bei linearen Messkennlinien können also durch eine Mittelung überlagerte mittelwertfreie Störungen aus dem Ausgangssignal herausgefiltert werden. Dies ist allerdings bei nichtlinearen Messkennlinien oder bei deformierenden (multiplikativen) Störgrößen nicht der Fall.

4.2.4.2 Nichtlineare Kennlinie In Abb. 4.11 ist das Eingangssignal u des Messsystems von einer mittelwertfreien Störung e überlagert. Das Messsystem habe nun eine gekrümmte Kennlinie f (u) mit der Empfindlichkeit S(u), die um den Arbeitspunkt u0 herum in eine Taylor-Reihe entwickelt wird: ( ' 1 S  (u0 ) Δy = S(u0 ) (Δu + e) · 1 + (Δu + e) + · · · . (4.130) 2 S(u0 ) Bei Unkorreliertheit von Δu und e ergibt sich für den Erwartungswert der Ausgangsgröße Δy die folgende Näherung: = > 1 = > μΔy = E{Δy} ≈ S(u0 ) Δu + E{e} + S  (u0 ) Δu2 + E{e2 } 2 1  2 = S(u0 ) · Δu + S (u0 ) · (Δu + σe2 ) . 2

(4.131) (4.132)

Obwohl die Störung e mittelwertfrei ist, weicht der Mittelwert der Ausgangsgröße μΔy bei gekrümmter Kennlinie vom idealen Anzeigewert ab. Auch im Arbeitspunkt u0 (Δu = 0) ist der Erwartungswert der Messabweichung μΔy = 0. Die Abweichung ist proportional zur Kennlinienkrümmung S  (u0 ) im Arbeitspunkt und zur Varianz σe2 des Störsignals. Möchte man Störungen des Messsignals durch eine Mittelwertbildung unterdrücken, so muss zuvor die Messkennlinie linearisiert werden.

Abbildung 4.11. Störung bei nichtlinearer Kennlinie.

4.3

Wichtige Wahrscheinlichkeitsverteilungen

139

4.3 Wichtige Wahrscheinlichkeitsverteilungen Im Folgenden werden für die Messtechnik relevante Wahrscheinlichkeitsverteilungen vorgestellt. In Abschnitt 4.3.1 werden diskrete Wahrscheinlichkeitsverteilungen behandelt, die nicht nur bei diskreten Messgrößen – etwa bei nominalen Merkmalen oder in der digitalen Messtechnik – eine Rolle spielen, sondern insbesondere auch im Kontext der Zuverlässigkeitstechnik (Abschnitt 4.5.2) von zentraler Bedeutung sind. Abschnitt 4.3.2 widmet sich den stetigen Wahrscheinlichkeitsverteilungen, unter denen bei Messaufgaben die Normalverteilung hervorsticht.

4.3.1 Diskrete Wahrscheinlichkeitsverteilungen 4.3.1.1 Bernoulli-Verteilung Die Bernoulli-Verteilung findet Verwendung bei Problemen, bei welchen zwei sich gegenseitig ausschließende Ereignisse e (z. B. „Erfolg“) und e¯ (z. B. „Misserfolg“) mit den komplementären Wahrscheinlichkeiten p bzw. 1 − p auftreten. Definition 4.25: Bernoulli-Verteilung

Eine Zufallsvariable x mit der diskreten Wahrscheinlichkeitsverteilung ⎧ ⎪ für k = 1 ⎨p P (x = k) = 1 − p für k = 0 ⎪ ⎩0 sonst

(4.133)

heißt Bernoulli-verteilt mit dem Parameter p (Erfolgswahrscheinlichkeit). Die binäre Zufallsvariable x beschreibt, ob das Ereignis e („Erfolg“) eingetreten ist.  Für den Erwartungswert der Bernoulli-Verteilung ergibt sich unmittelbar: μx = E{x} =

1 

k · P (x = k) = (1 − p) · P (x = 0) + 1 · P (x = 1) = p .

(4.134)

k=0

Mit dem zweiten Moment 1 1 22  E x = k 2 · P (x = k) = (1 − p) · P (x = 0) + 1 · P (x = 1) = p

(4.135)

k=0

erhält man für die Varianz der Bernoulli-Verteilung: 1 2 σx2 = E x2 − μ2x = p − p2 = p (1 − p) .

(4.136)

140

4. Zufällige Messfehler

4.3.1.2 Binomialverteilung Die Binomialverteilung findet Verwendung bei Problemen, bei welchen es zu einer Verkettung von n unabhängigen Bernoulli-Experimenten kommt. Die diskrete Zufallsvariable x beschreibt, wie oft das Ereignis e eintritt (Anzahl der „Erfolge“), und entspricht der Summe von n unabhängigen Bernoulli-verteilten Zufallsvariablen mit identischer Verteilung (d. h. mit identischer Erfolgswahrscheinlichkeit). Bei insgesamt n Versuchen kann x ganzzahlige Werte zwischen 0 und n annehmen und ist binomialverteilt. Definition 4.26: Binomialverteilung

Eine Zufallsvariable x mit der diskreten Wahrscheinlichkeitsverteilung ⎧  ⎪ ⎨ n pk (1 − p)n−k für k ∈ {0, 1, . . . , n} k P (x = k) = ⎪ ⎩0 sonst

(4.137)

heißt binomialverteilt mit den Parametern n (Anzahl der Versuche) und p (Erfolgswahrscheinlichkeit). Die Gleichung (4.137) beschreibt die Wahrscheinlichkeit, dass bei insgesamt n Versuchen das Ereignis mit der Wahrscheinlichkeit p genau k-mal eintritt.  Die Annahme einer Binomialverteilung setzt voraus, dass die Erfolgswahrscheinlichkeit p eines Einzelereignisses über alle n Versuche konstant bleibt. Diese Annahme ist bei der Entnahme von Stichprobenelementen aus einer endlichen Stichprobe in der Regel verletzt. Bei sehr großen Stichproben darf näherungsweise von einer konstanten Erfolgswahrscheinlichkeit p ausgegangen werden; anderenfalls muss das gezogene Stichprobenelement zurückgelegt werden. Um den Erwartungswert der Binomialverteilung zu berechnen, kann man sich die Eigenschaft zunutze machen, dass eine binomialverteilte Zufallsgröße einer Summe von n unabhängigen Bernoulli-verteilten Zufallsvariablen xi mit dem Erwartungswert E{xi } = p entspricht (Abschnitt 4.3.1.1). Mit (4.49) erhält man: n 3 n n    xi = E{xi } = p = np. (4.138) μx = E{x} = E i=1

i=1

i=1

Analog erhält man für die Varianz der Binomialverteilung mit (4.52) und (4.136): σx2 =

n  i=1

σx2i =

n  i=1

p (1 − p) = n p (1 − p) .

(4.139)

4.3

Wichtige Wahrscheinlichkeitsverteilungen

141

4.3.1.3 Poisson-Verteilung Definition 4.27: Poisson-Verteilung

Eine Zufallsvariable x mit der diskreten Wahrscheinlichkeitsverteilung ⎧ k ⎪ ⎨ λ e−λ für k = 0, 1, 2, . . . k! P (x = k) = ⎪ ⎩ 0 sonst

(4.140)



heißt Poisson-verteilt mit dem Parameter λ (Ereignisrate).

Für den Erwartungswert der Poisson-Verteilung erhält man mit der Darstellung der Exponentialfunktion als Potenzreihe: μx = E{x} =

∞ 

k · P (x = k) =

k=0

∞  k=0



k

 λk−1 λk −λ e = λ e−λ = λ. k! (k − 1)! k=1

 

(4.141)

= eλ

Analog erhält man für das zweite Moment mit der Identität k 2 = k (k − 1) + k: ∞ ∞ ∞ 1 2  λk −λ  λk −λ  λk −λ e = e + e k2 k (k − 1) k E x2 = k! k! k! k=0 k=0 k=0

 

(4.142)

= μx

∞  λk−2 + λ = λ2 + λ = λ2 e−λ (k − 2)! k=2

 

(4.143)

= eλ

und damit für die Varianz der Poisson-Verteilung: 1 2 σx2 = E x2 − μ2x = λ2 + λ − λ2 = λ .

(4.144)

4.3.2 Stetige Wahrscheinlichkeitsverteilungen In der praktischen Anwendung spielen normalverteilte Zufallsvariable eine große Rolle. So wird bei unbekannter Wahrscheinlichkeitsdichte in vielen Fällen berechtigterweise eine Normalverteilung angenommen. Der Grund liegt im zentralen Grenzwertsatz (Abschnitt 4.3.2.2). Davor sollen einige wichtige Eigenschaften normalverteilter Zufallsvariabler behandelt werden.

4.3.2.1 Normalverteilung Im Folgenden wird eine Zufallsvariable x mit dem Mittelwert μx und der Varianz σx2 betrachtet.

142

4. Zufällige Messfehler

Definition 4.28: Normalverteilung

Eine Zufallsvariable x ∼ N (μx , σx2 ) mit der Wahrscheinlichkeitsdichte3   1 (x − μx )2 fx (x) = N (μx , σx2 ) = √ exp − 2σx2 σx 2π

(4.145)

heißt normalverteilt. Eine normalverteilte Zufallsgröße wird durch die zwei Momente Mittelwert μx und Varianz σx2 vollständig charakterisiert.  Die Momente der Normalverteilung lassen sich über die charakteristische Funktion (4.70) berechnen. Für die Normalverteilung (4.145) lautet diese:   1 2 . (4.146) Φx (f ) = exp j2πf μx − (2πf σx ) 2 Der Mittelwert ergibt sich nach (4.74) zu:  1 dΦx (f )  = μx . E{x} = (j2π) df f =0 Für das zweite Moment erhält man analog:  d2 Φx (f )  1 2 E{x } = = σx2 + μ2x . (j2π)2 df 2 f =0

(4.147)

(4.148)

Alle höheren Momente lassen sich auf die Parameter μx und σx zurückführen. Daher ist die Normalverteilung alleine durch den Mittelwert μx und die Varianz σx2 (oder Standardabweichung σx ) der Zufallsvariablen x bestimmt. Eine auf den Mittelwert μx = 0 und die Varianz σx2 = 1 normierte Normalverteilung nennt man Standardnormalverteilung  2 1 x fx (x) = N (0, 1) = √ . (4.149) exp − 2 2π Wichtig ist der Zusammenhang, dass jede lineare Transformation einer normalverteilten Zufallsvariablen x, z = ax + b

mit

a, b ∈ IR ,

(4.150)

wieder eine normalverteilte Zufallsvariable z ergibt. Mit der Transformation4 z= 3 4

x − μx σx

(4.151)

Man sagt: „x ist verteilt nach N (μx , σx2 )“ und schreibt x ∼ N (μx , σx2 ).

Abweichend von der z-Transformation für zeitdiskrete Signale [7] wird in der mathematischen Statistik die Transformation (4.151) zur Standardisierung von Zufallsvariablen ebenfalls als z-Transformation bezeichnet.

4.3

Wichtige Wahrscheinlichkeitsverteilungen

143

kann daher eine Normalverteilung N (μx , σx2 ) in eine Standardnormalverteilung N (0, 1) überführt werden. Dies ist in der Praxis häufig nötig, da das Integral der Dichtefunktion (4.145) nicht geschlossen dargestellt werden kann. Zur Berechnung des Integrals werden Tabellen oder Softwareprogramme verwendet, bei denen meist eine Standardnormalverteilung vorausgesetzt wird. Definition 4.29: Mehrdimensionale Normalverteilung

Eine mehrdimensionale Zufallsvariable x = (x1 , . . . , xd )T ∈ IRd mit der Wahrscheinlichkeitsdichte fx (x) = N (μx , Cxx )

  1 1 T −1 (x − μ = exp − ) C (x − μ ) x x xx 2 (2π)d/2 |Cxx |1/2

(4.152) (4.153)

heißt multivariat normalverteilt. Eine mehrdimensionale Normalverteilung wird durch den Mittelwertvektor μx und die Kovarianzmatrix Cxx vollständig charakterisiert. Die Punkte gleicher Wahrscheinlichkeitsdichte beschreiben Ellipsoide in d Dimensionen.  Die Kovarianzmatrix Cxx ist stets symmetrisch und positiv semidefinit. Die Elemente auf der Hauptdiagonalen sind die Varianzen σx2i der einzelnen Komponenten xi : ⎞ ⎛ ⎞ ⎛ σx21 Cx 1 x 1 · · · C x 1 x d · · · ρx1 xd σx1 σxd ⎟ ⎜ ⎟ ⎜ .. .. .. (4.154) Cxx = ⎝ ... . . . ... ⎠ = ⎝ ⎠, . . . 2 σxd C x d x 1 · · · C x d xd ρxd x1 σ xd σ x1 · · · wobei ρxi xj den Korrelationskoeffizienten (4.53) zwischen xi und xj bezeichnet. Die Determinante |Cxx | ist proportional zur Größe der Ellipsoide und somit ein Maß für die Streuung von x. Ferner beschreiben die Eigenvektoren der Kovarianzmatrix Cxx die Richtung der Hauptachsen der Ellipsoide; die zugehörigen Eigenwerte entsprechen den Varianzen in Hauptachsenrichtung.

4.3.2.2 Zentraler Grenzwertsatz In vielen Anwendungen resultiert der zufällige Fehler e aus einer additiven Überlagerung zahlreicher unabhängiger, zufälliger Ereignisse ei mit unbekannten Wahrscheinlichkeitsdichten: e=

n 

ei .

(4.155)

i=1

Die Wahrscheinlichkeitsdichte der Summe von unabhängigen Zufallsvariablen ei kann nach Satz 4.2 (S. 116) allgemein über die Faltung der einzelnen Wahrschein-

144

4. Zufällige Messfehler

lichkeitsdichten berechnet werden: fe (e) = fe1 (e) ∗ fe2 (e) ∗ · · · ∗ fen (e) • ◦ n . Φe (f ) = Φei (f ) .

(4.156)

(4.157)

i=1

Zur Berechnung der Wahrscheinlichkeitsdichte von e ist der sogenannte zentrale Grenzwertsatz von großer Bedeutung [5]. Satz 4.5: Zentraler Grenzwertsatz

Haben die Zufallsvariablen xi Verteilungen mit beschränktem zweiten und dritten Moment und sind die Zufallsvariablen xi voneinander unabhängig, dann nähert sich die Dichte fx (x) der Summe x=

n 

xi

(4.158)

i=1

mit wachsendem Umfang n asymptotisch einer Normalverteilung an:   1 (x − μx )2 n→∞ fx (x) −−−−→ √ . exp − 2σx2 2πσx

(4.159)

Die Parameter der resultierenden Normalverteilung lassen sich dabei gemäß μx =

n 

E{xi } ,

(4.160)

σx2i

(4.161)

i=1

σx2 =

n  i=1

berechnen; vgl. (4.49) und (4.52).



Aus diesem Satz können wichtige Folgerungen getroffen werden, die die Bedeutung der Normalverteilung in der statistischen Qualitätskontrolle unterstreichen. 1. Fasst man den Wert eines Stichprobenelementes als Zufallsvariable xi auf, so folgt, dass der Stichprobenmittelwert x ˆ näherungsweise normalverteilt ist. 2. Entsteht ein Messfehler durch die Überlagerung mehrerer unabhängiger Zufallsereignisse, so kann für den Fehler eine Normalverteilung angenommen werden. Beispiel 4.9 (Zentraler Grenzwertsatz): Gegeben seien n = 4 Zufallsvariable xi mit

Wahrscheinlichkeitsdichten nach Abb. 4.12. Berechnet man die Wahrscheinlichkeitsdichte der Summe (4.158) durch Faltung der Einzeldichten, so erhält man das

4.3

Wichtige Wahrscheinlichkeitsverteilungen

145 χ2 -Verteilung

Normalverteilung

Gleichverteilung

Exponentialverteilung 0,3

0,2

0,2

0,15

0,15

0,1

0,1

0,05

0,05

0,5 0,25 0,4

0,2

0,3

0,15

0,2

0,1

0,1

0,05

0

5

0

10

0 −10

0

10

0 −10

0

10

0

0

5

10

Abbildung 4.12. Wahrscheinlichkeitsdichten einzelner Zufallsvariabler. Summenverteilung

, Normalverteilung

0,1 0,08 0,06 0,04 0,02 0

−10

−5

0

5

10

15

Abbildung 4.13. Wahrscheinlichkeitsdichte der Summe der Dichten aus Abb. 4.12 im Vergleich mit einer

Normalverteilung.

in Abb. 4.13 dargestellte Resultat. Man erkennt, wie gering die Abweichung zur Normalverteilung ist. Bei einer Überlagerung beliebig verteilter Zufallsvariabler kann in den meisten Fällen näherungsweise mit einer resultierenden Normalverteilung gerechnet werden.

4.3.2.3 χ2 -Verteilung Im letzten Unterabschnitt wurden Zufallsvariable additiv überlagert, wie es nach Def. 4.23 bei der Berechnung von Stichprobenmittelwerten erforderlich ist. Für die resultierende Zufallsgröße ergab sich nach dem zentralen Grenzwertsatz näherungsweise eine Normalverteilung. Nun sollen die Zufallsvariablen vor ihrer Addition quadriert werden. Die Wahrscheinlichkeitsdichte solcher Quadratsummen ist in der Statistik deshalb von Interesse, weil sie die Verteilung der Stichprobenvarianz beschreibt. Bei der Berechnung der Stichprobenvarianz s2x werden nach (4.95) die Stichprobenwerte xi − x ˆ quadriert und addiert. Führt man die Zufallsvariablen ˆ zi = xi − x

(4.162)

146

4. Zufällige Messfehler

ein, so erhält man mit yn = z21 + z22 + · · · + z2n

(4.163)

eine neue Zufallsvariable yn , die bis auf einen konstanten Faktor 1/(n − 1) gleich der Stichprobenvarianz s2x ist. Satz 4.6: χ2 -Verteilung

Sind n unabhängige Zufallsvariable zi mit einer Standardnormalverteilung N (0, 1) gegeben, so hat die Quadratsumme yn = z21 + z22 + · · · + z2n

(4.164)

die folgende Wahrscheinlichkeitsdichte: ⎧ y n 1 ⎨ 2 −1 e− 2 für y ≥ 0 , n y n 2 2 fyn (y = χ ) = Γ( 2 ) 2 ⎩ 0 für y < 0 .

(4.165)

Diese Verteilung wird χ2 -Verteilung (sprich: „Chi-Quadrat-Verteilung“) genannt (Abb. 4.14). Dabei ist n ihr einziger Parameter, der die Zahl der Freiheitsgrade der Verteilung beschreibt. Die Gammafunktion Γ(x), x ∈ IR, ist dabei eine Verallgemeinerung der Fakultätsfunktion und lässt sich wie letztere ebenfalls rekursiv berechnen: Γ(x + 1) = x · Γ(x) √ mit Γ( 12 ) = π und Γ(1) = 1.

(4.166) 

Beweis 4.3 (χ2 -Verteilung): Der Beweis erfolgt durch vollständige Induktion. Zu-

nächst wird die Dichte für eine einzige Zufallsvariable y1 = z21 berechnet. Nach Satz 4.3 benötigt man dafür die Lösung der Umkehrfunktion z1 = −z2 =

√ y.

(4.167)

Mit der Annahme einer Standardnormalverteilung der Stichprobe  2 1 z exp − fz1 (z) = √ 2 2π folgt für die Transformation      dy(z) −1  dy(z) −1    fy1 (y) = fz1 (z1 )  + f (z ) z1 2  dz z=z1 dz z=z2 y y 1 1 √ −1 = 2 · √ e− 2 · |2 y| = √ e− 2 , 2πy 2π

(4.168)

(4.169) y ≥ 0.

(4.170)

4.3

Wichtige Wahrscheinlichkeitsverteilungen

147

0,5 0,4 0,3 0,2 0,1

0

2

4

6

8

10

12

14

16

18

20

Abbildung 4.14. Wahrscheinlichkeitsdichte der χ2 -Verteilung.

Mit Γ( 12 ) =



π erhält man ⎧ y 1 1 ⎪ ⎨ 1 1 y − 2 e− 2 2 Γ( ) 2 fy1 (y) = 2 ⎪ ⎩ 0

für y ≥ 0 , (4.171) sonst .

Durch inverse Fourier-Transformation5 folgt die charakteristische Funktion: Φy1 (f ) =

1

"∞

1 Γ( 12 ) 2 2 0

1

y

1

y − 2 e−(1−j4πf ) 2 dy = (1 − j4πf )− 2 .

(4.172)

Für die Quadratsumme von n unabhängigen Zufallsvariablen erhält man analog die charakteristische Funktion der angenommenen Verteilung (4.165) zu 1 Φyn (f ) = n n Γ( 2 ) 2 2

"∞

y

y 2 −1 e− 2 +j2πf y dy = (1 − j4πf )− 2 . n

n

(4.173)

0

Der Schluss von n auf n + 1 basiert darauf, dass die charakteristische Funktion einer Summe von unabhängigen Zufallsvariablen dem Produkt der einzelnen cha5

Zur Lösung des inversen Fourier-Integrals ist der folgende Zusammenhang hilfreich [9]:  ∞ Γ(k + 1) y k e−ay dy = . ak+1 0

148

4. Zufällige Messfehler

rakteristischen Funktionen entspricht. Mit yn+1 = yn + y1 erhält man Φyn+1 (f ) = Φyn (f ) · Φy1 (f ) = (1 − j4πf )−

n+1 2

.

(4.174)

Dies ist aber die charakteristische Funktion einer χ2 -Verteilung von n + 1 unabhängigen Zufallsvariablen. Man sagt, die χ2 -Verteilung hat n + 1 Freiheitsgrade. Der Mittelwert und das zweite Moment der χ2 -Verteilung berechnen sich über die charakteristische Funktion (vgl. Abb. 4.14):  1 dΦyn (f )  = n, (4.175) E{yn } = j2π df f =0  d2 Φyn (f )  1 = n2 + 2n . (4.176) E{y2n } = (j2π)2 df 2 f =0 Daraus kann die Varianz berechnet werden:  2 σy2n = E{y2n } − E{yn } = 2n .

(4.177)

Durch Variablentransformation ergibt sich auch für allgemein normalverteilte Zufallsvariable xi ∼ N (μx , σx2 ) eine χ2 -verteilte Größe: χ2n =

(x1 − μx )2 + (x2 − μx )2 + · · · + (xn − μx )2 . σx2

(4.178)

Nachdem die Stichprobenvarianz (4.95) 1  (xi − x ˆ )2 n − 1 i=1 n

s2x =

(4.179)

χ2 -verteilt ist, stellt sich nun die Frage, wie viele Freiheitsgrade die Verteilung bei einem Stichprobenumfang von n Werten aufweist. Da der Mittelwert x ˆ=

1 (x1 + x2 + · · · + xn ) n

(4.180)

ebenfalls aus der Stichprobe geschätzt wird, hängt xn von den übrigen xi und dem Stichprobenmittelwert x ˆ ab: ˆ) = −(xn − x

n−1 

(xi − x ˆ) .

(4.181)

i=1

Durch Normierung der Quadratsumme aus der Stichprobenvarianz ergibt sich die χ2 -verteilte Größe n−1  n   1 1 χ2n = 2 (xi − x ˆ )2 = 2 (xi − x ˆ)2 + (xn − x ˆ )2 (4.182) σx i=1 σx i=1

4.3

Wichtige Wahrscheinlichkeitsverteilungen



1  = 2⎣ (xi − x ˆ )2 + σx i=1 n−1

n−1 

149

2 ⎤ (xi − x ˆ)



⎡ ⎤ n−1 n−1  n−1  1 ⎣ = 2 (xi − x ˆ )2 + (xi − x ˆ)(xj − x ˆ )⎦ σx i=1 i=1 j=1 =

(4.183)

i=1

n−1 n−1 n−1 2  1   2 (x − x ˆ ) + (xi − x ˆ)(xj − x ˆ) . i σx2 i=1 σx2 i=1 j=1,j =i

 

(4.184)

(4.185)

≈0

Die normierte Stichprobenvarianz χ2n =

n−1 n−1 2 2  s = (xi − x ˆ )2 σx2 x σx2 i=1

(4.186)

bei n unabhängigen Messwerten ist also χ2 -verteilt mit n−1 Freiheitsgraden.

4.3.2.4 Student’sche t-Verteilung Die Student’sche t-Verteilung ist die Grundlage wichtiger statistischer Tests, die in Abschnitt 4.4 behandelt werden. Sie wurde 1908 von W. S. Gosset unter dem Pseudonym „Student“ veröffentlicht. Satz 4.7: Student’sche t-Verteilung

Es seien zwei unabhängige Zufallsvariable x und y gegeben. Dabei besitze x eine Standardnormalverteilung N (0, 1) und y eine χ2 -Verteilung mit n Freiheitsgraden. Dann hat die Zufallsvariable t= 

x y/n

die Wahrscheinlichkeitsdichte [10]   n+1 Γ 1 2 n ·  . ft (t) = √  2 (n+1)/2 t nπ Γ 1+ 2 n Die Zufallsvariable t wird t-verteilt mit n Freiheitsgraden genannt.

(4.187)

(4.188)



Mit wachsendem n strebt die t-Verteilung gegen die Standardnormalverteilung N (0, 1). Praktisch wird für n ≥ 30 die t-Verteilung meist durch die Standardnormalverteilung approximiert (Abb. 4.15). Die Bedeutung der t-Verteilung kommt aus der Stichprobenuntersuchung. Der Stichprobenmittelwert x ˆ ist eine asymptotisch normalverteilte Zufallsvariable, die

150

4. Zufällige Messfehler

Abbildung 4.15. Wahrscheinlichkeitsdichte der t-Verteilung.

Stichprobenvarianz s2x ist χ2 -verteilt. Dann ist das Verhältnis x ˆ − μx t=  s2x /n

(4.189)

des mittelwertbereinigten Stichprobenmittelwertes zur Standardabweichung wegen (4.186) gerade t-verteilt mit n − 1 Freiheitsgraden.

4.4 Statistische Testverfahren Die mathematische Statistik stellt Mittel zur Verfügung, um aus einer Stichprobe Aussagen über die zugrunde liegende Verteilung abzuleiten. Dazu gehören neben den in Abschnitt 4.2 behandelten Schätzverfahren auch die statistischen Testverfahren, bei denen es um das Treffen von „Ja/Nein“-Entscheidungen geht. Hier sind speziell zwei Fragestellungen von großer praktischer Bedeutung. Einerseits stellt sich beim Stichprobenmittelwert die Frage, ob dieser Schätzwert repräsentativ für eine bestimmte angenommene Verteilung ist; die Antwort liefert der Signifikanztest für den Stichprobenmittelwert (Abschnitt 4.4.3). Andererseits interessiert man sich bei einer Stichprobe, ob diese einem bestimmten Verteilungsmodell folgt; dazu dient der χ2 -Anpassungstest (Abschnitt 4.4.4). Es liegt im Wesen der Statistik, dass Testverfahren keine absolut sicheren Aussagen liefern können; Testentscheidungen können vielmehr nur mit einer gewissen statistischen Sicherheit getroffen werden (Abschnitte 4.4.1 und 4.4.2).

4.4

Statistische Testverfahren

151

4.4.1 Konfidenzintervall und statistische Sicherheit In der Messtechnik ist es oftmals notwendig, Auskunft über die Zuverlässigkeit einer Schätzung zu geben. Beispielsweise ist die Schätzung des Mittelwertes μx durch den Stichprobenmittelwert x ˆ bei einer kleinen Stichprobe weniger vertrauenswürdig als bei einer großen. Ein Messwert ist daher nur dann aussagekräftig, wenn die mit dessen Schätzung verbundene Messunsicherheit bekannt ist. In vielen Fällen wird dazu das Konfidenzintervall (auch Vertrauensintervall) angegeben. Ein bestimmtes Intervall [μx−xα , μx+xα ] enthält den zu schätzenden Parameter mit der Irrtumswahrscheinlichkeit α = P (|x − μx | > xα ) .

(4.190)

Das zweiseitige Konfidenzintervall schließt also mit einer statistischen Sicherheit von 1 − α = P (|x − μx | ≤ xα )

(4.191)

den wahren Parameter ein (Abb. 4.16). Das sogenannte einseitige Problem führt dagegen zu der Aussage, dass ein Parameter mit der Irrtumswahrscheinlichkeit α beispielsweise nicht größer ist als eine bestimmte Grenze.

Abbildung 4.16. Zweiseitiges Konfidenzintervall.

4.4.1.1 Konfidenzintervall bei bekannter Standardabweichung In der Praxis geht man meist von einer Normalverteilung aus. Das Konfidenzintervall wird dann in Vielfachen c der Standardabweichung σx ausgedrückt: μ x − c σx ≤ x ≤ μ x + c σx .

(4.192)

Die statistische Sicherheit erhält man dann durch Integration der Dichte fx (x) der Normalverteilung (Abb. 4.17) zu 

|x − μx | P (c) = 1 − α = P ≤c σx



μx"+cσx

=

fx (x) dx . μx −cσx

(4.193)

152

4. Zufällige Messfehler

Abbildung 4.17. Konfidenzintervall bei Normalverteilung.

Leider lässt sich das Integral (4.193) analytisch nicht lösen, weshalb es meistens durch die Gauß’sche Fehlerfunktion erf(c) ausgedrückt wird, die sich wiederum numerisch berechnen oder in Tabellen nachschlagen lässt (vgl. Tab. A.2). Definition 4.30: Gauß’sche Fehlerfunktion

Die Gauß’sche Fehlerfunktion (engl. error function) ist durch das folgende Integral definiert: "c 2 2 e−x dx . (4.194) erf(c) = √ π 0



Die Gauß’sche Fehlerfunktion ist eine ungerade Funktion.

Um das Integral (4.193) in Abhängigkeit von der Fehlerfunktion auszudrücken, ist es zweckmäßig, die Verteilung durch die Transformation z=

x − μx σx

(4.195)

in eine Standardnormalverteilung zu überführen. Die statistische Sicherheit P (c) hängt dann nur noch vom Parameter c ab und kann durch die Gauß’sche Fehlerfunktion wie folgt angegeben werden: 1 P (c) = √ 2π

"c −c



z2 exp − 2

-

 dz =

2 π

"c



z2 exp − 2





c dz = erf √ 2

 .

(4.196)

0

Das Integral (4.196) lässt sich analytisch nicht lösen. Durch numerische Auswertung ergeben sich die in Tab. 4.2 angegebenen statistischen Sicherheiten P (c) in Abhängigkeit vom Parameter c (siehe auch Abb. 4.18 und Tab. A.2 auf S. 469).

4.4

Statistische Testverfahren

153

Tabelle 4.2. Statistische Sicherheit bei Normalverteilung.

c

Konfidenzintervall

Statistische Sicherheit P (c)

1 2 3

μ x ± σx μx ± 2σx μx ± 3σx

68,27 % 95,45 % 99,73 %

Abbildung 4.18. Statistische Sicherheit bei bekannter Standardabweichung (vgl. Tab. A.2).

Der für die Qualität eines Fertigungsprozesses entscheidende Parameter ist jedoch die Standardabweichung σx . Sie beschreibt, wie stark die Istmaße fertigungsbedingt streuen. Für eine statistische Sicherheit von beispielsweise P (c) = 95,45 % (c = 2) erhält man für verschiedene Standardabweichungen σx unterschiedlich breite Intervalle (Abb. 4.19). Eine schmale Verteilung lässt sich aber leichter in ein Toleranzfeld einer bestimmten Breite einpassen, ohne dass es zu hohen Ausschusswahrscheinlichkeiten kommt (Abschnitt 4.5.1).

4.4.1.2 Konfidenzintervall bei geschätzter Standardabweichung Das Konfidenzintervall für eine Zufallsgröße x wurde in (4.192) als Vielfaches c der Standardabweichung σx angegeben. Möchte man das Konfidenzintervall für den Stichprobenmittelwert x ˆ einer Messreihe von n unabhängigen Messungen ermitteln, so muss nach (4.94) die Standardabweichung des Stichprobenmittelwertes σx σˆx = √ n

(4.197)

154

4. Zufällige Messfehler

Abbildung 4.19. Breite des Konfidenzintervalls bei schmaler Normalverteilung (kleines σx ) und bei breiter Normalverteilung (großes σx ).

herangezogen werden: σx σx ˆ ≤ μx + c √ . μx − c √ ≤ x n n

(4.198)

Die Messunsicherheit uˆx ist abhängig von c und wird wie folgt definiert: σx uˆx = c · σˆx = c √ . n

(4.199)

In der Praxis ist jedoch die Standardabweichung σx oftmals nicht bekannt. Daher wird in (4.198) die empirische Standardabweichung sx der Stichprobe als Schätzwert für die Standardabweichung σx eingesetzt: −c ≤

x ˆ − μx √ ≤ c. sx / n

(4.200)

Die Transformation t=

x ˆ − μx √ sx / n

(4.201)

ergibt nach Satz 4.7 eine t-verteilte Zufallsvariable mit n−1 Freiheitsgraden. Zur Berechnung der statistischen Sicherheit aus einer Stichprobe muss daher anstelle der Normalverteilung die Dichte der t-Verteilung (4.188) integriert werden: 

|ˆ x − μx | √ = |t| ≤ c Pn (c) = P sx / n



"c = −c

  Γ n+1 2  · √ nπ Γ n2 1 +

1

 t2 (n+1)/2 n

dt ;

(4.202)

vgl. Abb. 4.20 und Tab. A.2. Damit ist die statistische Sicherheit bei geschätzter Standardabweichung abhängig vom Stichprobenumfang n. Zur Ermittlung des Konfidenzintervalls geht man in der Praxis folgendermaßen vor:

4.4

Statistische Testverfahren

155

Abbildung 4.20. Statistische Sicherheit bei geschätzter Standardabweichung sx (vgl. Tab. A.2).

1. Man wählt eine statistische Sicherheit P {|t| ≤ c} und liest für n − 1 Freiheitsgrade (entsprechend einem Stichprobenumfang von n) den Wert c aus Abb. 4.20 oder Tab. A.2 ab. 2. Die Standardabweichung der Stichprobe wird nach (4.95) berechnet: 8 9 n 9 1  sx = : (xi − x ˆ )2 . (4.203) n − 1 i=1 3. Mit der Messunsicherheit uˆx des Stichprobenmittelwertes sx uˆx = c · √ n

(4.204)

ergibt sich das Vertrauensintervall zu: sx sx ˆ ≤ μx + c √ . μx − c √ ≤ x n n

(4.205)

156

4. Zufällige Messfehler

Soll die Messunsicherheit ux einer Einzelmessung unabhängig von der Zahl der Messwerte angegeben werden, wird man die Standardabweichung der Stichprobe sx aus vielen unabhängigen Messwerten gemäß (4.95) berechnen und den Wert c zu der geforderten statistischen Sicherheit Pn (c) aus Abb. 4.20 ablesen. Die Messunsicherheit der Einzelmessung ux = c · sx

(4.206)

wird größer als die des Stichprobenmittelwertes sein. Für n → ∞ geht die Varianz σˆx2 des Stichprobenmittelwertes gegen null, d. h. die statistische Sicherheit Pn (c) konvergiert gegen das Integral P (c) der Dichte der Normalverteilung (vgl. Abb. 4.20). Streng von der Messunsicherheit zu unterscheiden ist der Begriff der Fehlergrenze. Die Fehlergrenzen sind in der Messtechnik die vereinbarten oder garantierten, zugelassenen äußersten Abweichungen von einem vorgeschriebenen Wert der Messgröße. Damit die spezifizierten Fehlergrenzen sicher eingehalten werden können, muss die Messunsicherheit erheblich kleiner als der durch eine Fehlergrenze gegebene Bereich sein. Ist ein Messergebnis mittelbar durch die Funktion der Messwerte gegeben, so ist die Messunsicherheit bei ausreichend großer Stichprobe n nach dem sogenanten Gauß’schen Fehlerfortpflanzungsgesetz gegeben (Abschnitt 4.6).

4.4.2 Hypothesen und statistische Tests Das Ziel statistischer Tests besteht darin, eine präzise formulierte Behauptung – die sogenannte Nullhypothese H0 – zu überprüfen. Ein Beispiel für H0 wäre: „Eine gegebene Stichprobe entstamme einer bestimmten Grundgesamtheit.“ Nach Popper lassen sich aber wissenschaftstheoretisch Hypothesen nur widerlegen, nicht jedoch beweisen [6]. Der Nullhypothese H0 steht daher die komplementäre Alternativhypothese H1 gegenüber, die es (mit einer möglichst großen Wahrscheinlichkeit) zu bestätigen – d. h. zu erkennen – gilt. Sollte dies gelingen, wird die Nullhypothese H0 verworfen. Anderenfalls darf bis auf Weiteres von der Gültigkeit der Nullhypothese ausgegangen werden. Für statistische Tests benötigt man darüber hinaus den Begriff des Signifikanzniveaus. Das Signifikanzniveau α ist identisch mit jener Irrtumswahrscheinlichkeit, die man bereit ist zu akzeptieren, falls das Testverfahren eine Ablehnung einer tatsächlich zutreffenden Nullhypothese H0 ergibt („Fehler 1. Art“). Es entspricht einem Falschalarm, also dem Risiko, einen Unterschied zu „erfinden“ oder zu behaupten, der in Wirklichkeit nicht vorhanden ist. Daher wird das Signifikanzniveau in der Regel konservativ (d. h. sehr klein) gewählt, normalerweise in der Größenordnung 0,001 ≤ α ≤ 0,05 .

(4.207)

4.4

Statistische Testverfahren

157

Tabelle 4.3. Mögliche Testentscheidungen beim Prüfen der Nullhypothese H0 .

Testentscheidung

H0 wird abgelehnt H0 wird bestätigt

Tatsächlicher Zustand H0 trifft zu

H0 trifft nicht zu

α (Fehler 1. Art)

1−β

1−α

β (Fehler 2. Art)

Da das Signifikanzniveau α vorgegeben werden muss, liegt der Gedanke nahe, dieses so klein wie möglich zu wählen (z. B. α = 10−9 ), damit es praktisch kaum zu der erwähnten Fehlentscheidung kommt. Bei der Durchführung statistischer Tests ist aber zu beachten, dass noch eine zweite Art von Fehlentscheidungen möglich ist (Tab. 4.3). Wenn man α verkleinert, steigt die Wahrscheinlichkeit eines Fehlers 2. Art. Während ein Fehler 1. Art als Falschalarm interpretiert werden kann, ist ein Fehler 2. Art ein unterbliebener Alarm („Schlupf“), d. h. trotz signifikanter Abweichung wird die Hypothese H0 „bestätigt“. Die Wahrscheinlichkeit β für einen Fehler 2. Art lässt sich meist nicht vorab bestimmen. Abbildung 4.21 veranschaulicht diese Problematik am Beispiel einer Entscheidungsfindung basierend auf einem skalaren Merkmal x. Eine Verringerung des Fehlers 1. Art (Falschalarm) geht mit einer Erhöhung des Fehlers 2. Art (Schlupf) einher. Da der Fehler 2. Art vom unbestimmten Lageparameter μ1 der Alternativhypothese H1 abhängig ist, kann die zugehörige Wahrscheinlichkeit β für diesen Fehler im Allgemeinen nicht angegeben werden.

Abbildung 4.21. Fehler 1. und 2. Art am Beispiel einer Entscheidungsfindung basierend auf einem skalaren

Merkmal x.

158

4. Zufällige Messfehler

4.4.3 Signifikanztest für den Stichprobenmittelwert Gegenstand des Signifikanztests für den Stichprobenmittelwert ist die Beantwortung der Frage, ob eine Stichprobe zu einer vorgegebenen Grundgesamtheit gehört. Dazu geht man meist von einer Normalverteilung N (μ0 , σx2 ) aus und prüft, ob der Stichprobenmittelwert x ˆ nahe genug am wahren Mittelwert μ0 der Verteilung liegt. Ist dies nicht der Fall, so ist die Abweichung nicht zufällig, sondern signifikant: die Stichprobe wird als nicht repräsentativ abgelehnt. Besitzt die Grundgesamtheit eine beliebige Verteilung, die dem zentralen Grenzwertsatz genügt, so lässt sich der Signifikanztest für den Stichprobenmittelwert ebenfalls einsetzen, da der Stichprobenmittelwert dann näherungsweise normalverteilt ist. Da man bei diesem Test nicht eine Wahrscheinlichkeitsdichte fx (x), sondern einen Parameter x ˆ einer vorgegeben Normalverteilung prüft, handelt es sich um ein parametrisches Prüfverfahren oder Parametertest. Beim Signifikanztest für den Stichprobenmittelwert wird wie folgt verfahren: 1. Voraussetzungen prüfen: Unabhängigkeit der Messwerte; Normalverteilung der Grundgesamtheit mit Erwartungswert μ0 (alternativ: Grundgesamtheit genügt dem zentralen Grenzwertsatz). 2. Ermittlung des Stichprobenmittelwertes x ˆ und – bei unbekannter Varianz σx2 der Grundgesamtheit – der Standardabweichung der Stichprobe sx . 3. Aufstellen der Nullhypothese: ˆ = μ0 , H0 : x

H1 : x ˆ = μ0 .

(4.208)

4. Festlegen der Prüfgröße c: Bei bekannter Varianz σx2 kann mit einer Normalverteilung gerechnet werden; der zugehörige Test wird Einstichproben-Gauß-Test genannt: z=

|ˆ x − μ0 | |ˆ x − μ0 | √ = n = c. σˆx σx

(4.209)

Wird die Varianz durch die Stichprobenvarianz geschätzt, so ist die Prüfgröße t-verteilt; das zugehörige Testverfahren heißt Einstichproben-t-Test: t=

|ˆ x − μ0 | √ n = c. sx

(4.210)

Die Anzahl der Freiheitsgrade beträgt dabei f = n − 1. 5. Festlegen des Signifikanzniveaus α. Daraus ergibt sich die maximale statistische Sicherheit 1 − α, die mit der Nullhypothese verträglich ist. 6. Bestimmen der Wahrscheinlichkeit der Prüfgröße: Aus einer Tabelle (Abb. 4.18, Abb. 4.20 oder Tab. A.2) wird der Wert für P (c) bzw. Pn (c) entnommen.

4.4

Statistische Testverfahren

159

7. Testentscheidung: Annahme der Nullhypothese, falls P (c) ≤ 1 − α .

(4.211)

Ablehnung der Nullhypothese, falls P (c) > 1 − α .

(4.212)

Beispiel 4.10 (Signifikanztest für den Stichprobenmittelwert): Ein Werkstück habe das

Sollmaß μ0 = 12,0 mm. Es wird eine Stichprobe bestehend aus n = 90 Werkstücken vermessen. Der Stichprobenmittelwert wird als x ˆ = 12,075 mm, die Standardabweichung als sx = 0,229 mm ermittelt. Wegen des großen Stichprobenumfangs (n ≥ 30) geht die t-Verteilung näherungsweise in eine Normalverteilung über. Die Standardabweichung des Stichprobenmittelwertes ist damit näherungsweise √ σˆx ≈ sx / n = 0,0241 mm. Als Signifikanzniveau wird die ±3σx -Spanne der Normalverteilung zugrunde gelegt: α = 0,0027



1 − α = 0,9973 .

(4.213)

Unter der Voraussetzung, dass die Messwerte normalverteilt sind, erhält man für die Wahrscheinlichkeit der Prüfgröße einen hohen Wert von   |ˆ x − μ0 | = P (3,112) = 0,9981 > 1 − α . (4.214) P (c) = P σˆx Die Abweichung des Stichprobenmittelwertes x ˆ vom wahren Mittelwert μ0 bezogen auf die Standardabweichung σˆx ist zu groß und somit signifikant. Die Stichprobe muss deshalb als nicht repräsentativ abgelehnt werden.

4.4.4 χ2 -Anpassungstest Im vorigen Abschnitt wurde geprüft, ob die Werte eines oder mehrerer Parameter einer Stichprobe, z. B. Mittelwerte oder Varianzen, signifikant oder rein zufällig voneinander abweichen. Man nennt solche Prüfverfahren Parametertests. Eine andere Art von Verfahren, welche die Hypothese H0 prüfen, ob eine Stichprobe einer Grundgesamtheit mit einer vorgegebenen, beliebigen Wahrscheinlichkeitsdichte fx (x) entstammt, nennt man Anpassungstests. Der wichtigste Test aus dieser Gruppe ist der χ2 -Test. Man teilt dabei den gesamten Wertebereich der Zufallsgröße x in k disjunkte Intervalle Δ1 , . . . , Δk , die Klassen, ein (ähnlich wie beim Histogramm, vgl. Abschnitt 4.2.1). Die Stichprobe habe den Umfang n. Durch Integration der vorgegebenen Wahrscheinlichkeitsdichte fx (x) im Intervall Δi erhält man die theoretische Wahrschein-

160

4. Zufällige Messfehler

lichkeit pi dafür, dass x in Δi fällt: " pi =

fx (x) dx

mit

k 

pi = 1 .

(4.215)

i=1

Δi

Die Wahrscheinlichkeit fni dafür, dass bei einer Stichprobe mit Umfang n gerade ni Elemente anstelle der theoretischen n · pi in die Klasse Δi fallen, wird durch die Binomialverteilung (Abschnitt 4.3.1.2) beschrieben:   n (4.216) pni (1 − pi )n−ni . f ni = ni i Nach dem Moivre-Laplace-Theorem – einem Spezialfall des zentralen Grenzwertsatzes – geht die Binomialverteilung für n → ∞ in eine Normalverteilung über [5]. Daher kann die letzte Gleichung bei fester Wahrscheinlichkeit pi und hinreichend großem Stichprobenumfang n näherungsweise durch die Normalverteilung   (ni − n pi )2 1 f ni ≈  (4.217) exp − 2n pi (1 − pi ) 2πn pi (1 − pi ) mit dem Erwartungswert E{ni } = n pi

(4.218)

dargestellt werden. Für pi  1, d. h. bei einer ausreichend großen Zahl von Klassen, ist die Varianz für die Elementezahl ni σn2i ≈ n pi .

(4.219)

Die Summe der auf die jeweiligen Varianzen σn2i normierten quadratischen Abweichungen der tatsächlichen Elementezahl ni zum Erwartungswert n · pi ist ein Maß für die Abweichung beider Verteilungen voneinander und genügt nach Satz 4.6 näherungsweise einer χ2 -Verteilung mit (k − 1) Freiheitsgraden: χ2 ≈

k  (ni − n pi )2 i=1

n pi

.

(4.220)

Die Klasseneinteilung ist weitgehend willkürlich. Einerseits wünscht man sich viele Klassen, um die Wahrscheinlichkeitsdichte fx (x) möglichst gut zu approximieren. Andererseits sollten die ni genügend groß sein, damit die Testgröße als χ2 -verteilt betrachtet werden kann. Als Faustregel für die Praxis sollten die ni mindestens 1 bei Randklassen, ansonsten mindestens 5 betragen. Die Vorgehensweise beim χ2 -Anpassungstest ist die folgende: 1. Voraussetzungen prüfen: Unabhängigkeit der Messwerte,

4.4

Statistische Testverfahren

161

Möglichst großer Stichprobenumfang. 2. Erstellen eines Histogramms: Festlegen der k Klassen Δi . Ermitteln der absoluten Häufigkeiten ni innerhalb der Klassen. Sind die Bedingungen ni ≥ 5 oder ni,Rand ≥ 1 nicht erfüllt, dann Nachbarklassen zu einer gemeinsamen Klasse zusammenfassen. 3. Aufstellen der Nullhypothese: H1 : fx (x) = f0 (x) .

H0 : fx (x) = f0 (x) ,

(4.221)

4. Festlegen des Signifikanzniveaus α: Daraus bestimmt man die maximale statistische Sicherheit P = 1 − α.

(4.222)

Häufig wird beim χ2 -Anpassungstest eine gegenüber den Parametertests auf α = 0,05 vergrößerte Irrtumswahrscheinlichkeit gewählt. Da bei Anpassungstests keine Voraussetzungen über die Wahrscheinlichkeitsdichte gemacht werden, sind diese weniger wirksam als entsprechende Parametertests. 5. Festlegen der Prüfgröße: χ2 ≈

k  (ni − n pi )2 i=1

n pi

.

(4.223)

6. Bestimmung der Freiheitsgrade: m = k − 1 − Anzahl der geschätzten Parameter .

(4.224)

Meist sind die Parameter der zu prüfenden Verteilung nur durch Stichproben bex; s2x ) kannt. Werden bei einer Normalverteilung die Parameter (μx ; σx2 ) durch (ˆ geschätzt, so verringert sich der Freiheitsgrad zusätzlich um zwei: m = k − 2 − 1. 7. Bestimmen der Wahrscheinlichkeit der Prüfgröße: Aus Abb. 4.22 für die statistische Sicherheit bei χ2 -Verteilung entnimmt man den Wert für χ2α für das vorgegebene Signifikanzniveau P (χ2 ≤ χ2α ) = 1 − α .

(4.225)

8. Testentscheidung: Annahme der Nullhypothese, falls χ2 ≤ χ2α .

(4.226)

Ablehnung der Nullhypothese, falls χ2 > χ2α .

(4.227)

162

4. Zufällige Messfehler

1,00 0,99 0,98 0,97 0,96

0,95 0,94

0,93 0,92 0,91 0,90

5

10

15

20

25

30

35

40

45

Abbildung 4.22. Wahrscheinlichkeit von χ2 ≤ χ2α bei m = k − 1 Freiheitsgraden.

Beispiel 4.11 (χ2 -Test auf Gleichverteilung): Für einen Würfel mit k = 6 Augen soll

überprüft werden, ob eine Gleichverteilung der Augenzahlen vorliegt: Hypothese H0 :

fx (x) = ? Gleichverteilung .

(4.228)

Es werden n = 120 Testwürfe durchgeführt (Tab. 4.4). Die theoretische Elementezahl n pi = 20 ist bei der angenommenen Gleichverteilung in allen Klassen gleich. Das Signifikanzniveau sei α = 0,05

P (χ2 ≤ χ2α ) ≤ 1 − α = 0,95 .



(4.229)

Tabelle 4.4. Würfelexperiment.

Augenzahl

1

2

3

4

5

6

Summe

Anzahl ni

14

27

15

24

13

27

120

ni − n pi (ni − n pi )2 n pi

−6

7

−5

4

−7

7

0

1,8

2,45

1,25

0,8

2,45

2,45

11,2

4.5

Qualitätssicherung

163

Für die Wahrscheinlichkeit P (χ2 ≤ χ2α ) = 0,95 bei m = k − 1 = 5 Freiheitsgraden entnimmt man Abb. 4.22 den Wert χ2α = 11,0 .

(4.230)

Die Summe der Abweichungsquadrate (Prüfgröße) χ2 = 11,2 ist nach Tab. 4.4 größer als der Grenzwert: χ2 > χ2α .

(4.231)

Die Abweichungen sind signifikant und die Hypothese H0 wird deshalb fälschlicherweise abgelehnt (Fehler 1. Art). Durch Erhöhung der Zahl von Testwürfen kann aber die Hypothese bestätigt werden, dass eine Gleichverteilung vorliegt.

4.5 Qualitätssicherung 4.5.1 Beurteilung von Fertigungsprozessen Zur Bewertung der Qualität von Fertigungsprozessen wird geprüft, inwieweit 99,73 % (μx ± 3σx ) der Istmaße x eines Werkstücks innerhalb der spezifizierten Toleranzgrenzen [xmin ; xmax ] liegen, wobei xmin und xmax das kleinste bzw. größte zulässige Grenzmaß bezeichnen. Für die Istmaße wird eine Normalverteilung angenommen, deren Parameter hinreichend genau bekannt sein müssen, z. B. durch eine ausreichend große Stichprobe. Im Folgenden bezeichnen 2Δxs = xmax − xmin die Breite des Toleranzfeldes und    1  ˆ Δˆ x =  (xmax + xmin ) − x 2

(4.232)

(4.233)

die Abweichung des Stichprobenmittelwertes x ˆ von der Toleranzfeldmitte (Abb. 4.23). Als Prozessfähigkeitsindex cp =

xmax − xmin Δxs = 6σx 3σx

(4.234)

wird das Verhältnis der Breite des Toleranzfeldes 2Δxs zum Vertrauensbereich 6σx definiert. Je größer der Index cp ist, desto geringer ist die Streuung der Istmaße x im Verhältnis zur spezifizierten Toleranz. Zur Beurteilung der Eignung eines Fertigungsprozess interessiert auch die Lage des Stichprobenmittelwertes x ˆ innerhalb des Toleranzfeldes. Eine Abweichung Δˆ x engt den Abstand des 3σx -Bereichs zur Toleranzgrenze einseitig ein. Zur Abschätzung

164

4. Zufällige Messfehler

Abbildung 4.23. Spezifikation von Fertigungstoleranzen.

wird der Prozessbrauchbarkeitsindex definiert:   x Δxs − Δˆ Δˆ x cpk = = cp 1 − . 3σx Δxs

(4.235)

Für beide Indizes muss cp ≥ 1,

cpk ≥ 1

(4.236)

gelten, damit der Fertigungsprozess einen geringen Ausschuss (< 0,27 %) aufweist. Dann liegt das Istmaß x nur bei einem geringen Prozentsatz der gefertigten Erzeugnisse außerhalb des zulässigen Bereichs. Bei Betrachtung der unterschiedlich breiten Normalverteilungen aus Abb. 4.19 wird sofort klar, dass die Güte einer Fertigung unmittelbar mit der Breite der zugrunde liegenden Normalverteilung zusammenhängt. So ist eine schmale Normalverteilung wesentlich robuster gegenüber Schwankungen des Mittelwertes x ˆ, ohne dass dies gleich zu erhöhten Ausschussraten führen muss. Die Ausschussrate p berechnet sich bei Normalverteilung über die Gauß’sche Fehlerfunktion erf(x) zu √   1 1 − erf 3 cpk / 2 . (4.237) p≈ 2 Sie wird häufig in „dpm“ (defects per million) angegeben. Bei einer qualitativ hochwertigen Fertigung wird ein Prozessbrauchbarkeitsindex cpk von cpk > 1,67 . . . 2

(4.238)

gefordert, mit Ausschussraten von p < 0,3 . . . 0,001 dpm .

(4.239)

4.5

Qualitätssicherung

165

Beispiel 4.12 (Länge eines Werkstücks): Bei einem feinmechanischen Werkstück sei

das Längenmaß auf (4.240)

x = 0,609 mm spezifiziert. Zulässige Fertigungstoleranzen werden wie folgt angegeben: xmin = 0,591 mm ≤ x ≤ xmax = 0,627 mm .

(4.241)

Aus einer Stichprobenmessung werden der Mittelwert x ˆ und die Standardabweichung sx ermittelt: x ˆ = 0,600 mm ,

sx = 0,003 mm ≈ σx .

(4.242)

Mit den Werten 1 (0,627 mm − 0,591 mm) = 0,018 mm , 2 1 Δˆ x = (0,591 mm + 0,627 mm) − 0,600 mm = 0,009 mm 2 Δxs =

(4.243) (4.244)

erhält man den Prozessfähigkeitsindex cp =

Δxs 0,018 mm =2 = 3σx 0,009 mm

und den Prozessbrauchbarkeitsindex     Δˆ x 0,009 mm cpk = cp 1 − = 1. =2 1− Δxs 0,018 mm

(4.245)

(4.246)

Die Verteilung liegt unsymmetrisch im Toleranzfeld. Die Ausschussrate beträgt nach (4.237) p≈

√  1 1 − erf(3 cpk / 2) = 0,00135 = 1350 dpm , 2

(4.247)

wobei zur Berechnung nur die Spitze der Wahrscheinlichkeitsdichte berücksichtigt wurde, die über die untere Toleranzgrenze hinausragt.

4.5.2 Bestimmung der Ausfallrate Die Hersteller elektronischer Geräte beziehen große Mengen elektronischer Bauelemente mit vertraglich festgelegten Ausfallraten. Zur Überprüfung der Qualität der Bauelemente bestimmen die Gerätehersteller die Ausfallraten messtechnisch. Wegen des großen Aufwands kann die Überprüfung nur stichprobenweise erfolgen. Es seien n die Zahl der Bauelemente in der Stichprobe, p die Ausfallwahrscheinlichkeit des Bauelementes und k die Zahl der in der Stichprobe registrierten Ausfälle.

166

4. Zufällige Messfehler

Dann ist die Wahrscheinlichkeit, dass in der Stichprobe zwischen k1 und k2 der n Bauelemente ausgefallen sind, durch die Binomialverteilung (4.137) gegeben [5]: Pn (k1 ≤ i ≤ k2 ) =

k2    n i p (1 − p)n−i . i

(4.248)

i=k1

Für den Grenzfall n → ∞ und p → 0 gilt bei konstantem Produkt np das Poisson’sche Theorem, nach dem die Binomialverteilung (4.137) in die Poisson-Verteilung (4.140) übergeht: k2  ni i −np p e . Pn (k1 ≤ i ≤ k2 ) = i!

(4.249)

i=k1

Die Wahrscheinlichkeit, dass in der Stichprobe weniger als k Bauelemente ausgefallen sind (k1 = 0, k2 = k), ist dann Pn (i ≤ k) = e−np

k  (np)i i=0

i!

(4.250)

.

Beispiel 4.13 (Ausfallwahrscheinlichkeit): Die Stichprobengröße sei n = 3000, die Aus-

fallwahrscheinlichkeit p = 10−3 . Dann ergibt sich mit 3 −3 Pn (i ≤ 5) = e−3 · 10 · 10

5  (3 · 103 · 10−3 )i i=0

i!

= 0,916

(4.251)

die Wahrscheinlichkeit, dass in der Stichprobe höchstens 5 Bauelemente defekt sind. Im Prüffeld wird häufig mit der Ausfallrate λ gearbeitet, die im Folgenden als konstant angenommen wird und dann dem Kehrwert der mittleren Lebensdauer (mean time to failure, MTTF) entspricht. Bei der Prüfung von Bauelementen definiert man nt: Zahl der „Bauelementestunden“, d. h. das Produkt aus der Zahl n der Bauelemente in der Stichprobe und der Prüfzeit t, λ: Ausfallwahrscheinlichkeit p der Bauelemente bezogen auf die Prüfzeit t. Mit λ · nt = n p kann (4.250) geschrieben werden als Pn (i ≤ k) = e−λ nt

k  (λ · nt)i i=0

i!

.

(4.252)

In der Stichprobenprüfung interessiert man sich für die Ausfallrate λ der Bauelemente. Um diese zu bestimmen, wird die Zahl der Ausfälle k nach der Zahl der durchlaufenen Bauelementestunden nt gemessen. Dabei setzt man die Wahrscheinlichkeit, dass für die zu berechnende Ausfallrate λ höchstens k Ausfälle in der Stichprobe auf-

4.5

Qualitätssicherung

167

treten, mit einer kleinen Wahrscheinlichkeit (z. B. α = 0,1) an: Pn (i ≤ k) = α .

(4.253)

Diese entspricht dem Signifikanzniveau α. Dann ist das Konfidenzniveau Pn (i > k) = 1 − Pn (i ≤ k) = 1 − α

(4.254)

entsprechend hoch, dass für den Wert λ in der Stichprobe sogar mehr als die gemessenen k Ausfälle auftreten und diese damit registriert werden können. Die Bestimmung von λ liegt damit auf der sicheren Seite. Die Gleichung Pn (i ≤ k) = α = e−λ nt

k  (λ · nt)i i=0

(4.255)

i!

ordnet der im Test registrierten Zahl von Ausfällen k genau einen Wert λ · nt zu. Man kann deshalb (4.255) auch als λ · nt = f (k)

(4.256)

interpretieren. Durch numerische Berechnung erhält man bei einer konstanten Ausfallrate λ für verschiedene Konfidenzniveaus 1 − α die in der Tab. 4.5 aufgeführten Werte f (k). Tabelle 4.5. Korrekturfaktoren f (k) zur Berechnung der Ausfallrate.

Konfidenzniveau 1−α

Zahl der Ausfälle k 0

1

2

3

4

5

0,70

1,39

2,69

3,92

5,06

6,27

7,42

0,80

1,61

2,99

4,28

5,52

6,72

7,91

0,90

2,30

3,89

5,32

6,68

7,99

9,27

0,95

3,00

4,74

6,30

7,75

9,15

10,60

0,99

4,60

6,64

8,41

10,04

11,60

13,11

Die Beziehung (4.256) kann auf doppeltlogarithmischem Papier als Geradenschar log λ = log f (k) − log(nt)

(4.257)

mit dem Parameter k dargestellt werden (Abb. 4.24). Zu Beginn des Tests ist k = 0: die Ausfallrate λ nimmt mit wachsender Bauelementestunden-Zahl nt entlang der Kurve f (k = 0) ab. Wenn ein Ausfall registriert wird (k = 1), springt man auf die Kurve f (k = 1) zu einer höheren Ausfallrate λ usw. Nach ausreichend langer Testzeit erreicht man einen asymptotischen Wert für λ. Aufgrund von sogenannten Frühausfällen ist die Ausfallrate bei kurzen Testzeiten meist höher als der asymptotische Wert.

168

4. Zufällige Messfehler

10

−5

10

−6

10

10

−7

−8

10

5

10

6

10

7

10

8

Abbildung 4.24. Bestimmung der Ausfallrate von elektronischen Bauelementen.

Zur Reduktion der Testzeiten werden die Bauelemente zumeist unter verschärften Testbedingungen geprüft. Man betreibt die Bauelemente z. B. bei höheren Temperaturen oder unterwirft sie Temperaturzyklen. Die erhöhte Beanspruchung lässt sich für spezielle Ausfallmechanismen in einen zeitlichen Raffungsfaktor r umrechnen, um den die Testzeit gekürzt werden kann.

Beispiel 4.14 (Ausfallrate): Eine Firma verarbeitet 3 · 106 Bauelemente eines Typs pro

Jahr. Davon werden n = 3000 über 30 Tage, d. h. t = 720 h, getestet. Der Test findet bei erhöhten Umgebungstemperaturen statt, woraus sich ein Raffungsfaktor von r ≈ 10 gegenüber den normalen Einsatzbedingungen ergibt. Tabelle 4.6 zeigt die im Test aufgetretenen Ausfälle. Bei t = 720 h wird der Test abgebrochen. Bei der

4.5

Qualitätssicherung

169

Tabelle 4.6. Gemessene Ausfallzeiten von Bauelementen.

k

1

t/h

33

167

6

5 · 10

r · nt/h

10

2

3

4

433 6

5

567

1,3 · 10

7

720

1,7 · 10

7

2,16 · 107

Berechnung der Ausfallrate λ=

f (k) 9,27 = = 4,3 · 10−7 h−1 r · nt 2,16 · 107 h

(4.258)

wird nur die letzte Spalte von Tab. 4.6 berücksichtigt, um den Einfluss von Frühausfällen zu unterdrücken. Die Zahl n der in der Stichprobe getesteten Bauteile sollte möglichst groß sein. Dies ist von entscheidender Bedeutung für die Bewertung der Ausfallwahrscheinlichkeit, was am folgenden Beispiel verdeutlicht werden soll.

Beispiel 4.15 (Größe der Stichprobe): Für drei Lieferanten werden die folgenden Aus-

fälle gemessen: Lieferant A: k = 0 von n = 500, d. h. 0 dpm Lieferant B : k = 1 von n = 2000, d. h. 500 dpm Lieferant C: k = 6 von n = 10000, d. h. 600 dpm Man könnte nun versucht sein, den Lieferanten A aufgrund dieser Messergebnisse als den besten einzustufen, und Lieferanten C als den schlechtesten. Dies ist aber deshalb nicht richtig, da die Zahl k der Ausfälle nicht korrekt berücksichtigt wurde. Die Rechnung muss lauten: Lieferant A: k < 1 Ausfälle von n = 500, d. h. < 2000 dpm Lieferant B : k < 2 Ausfälle von n = 2000, d. h. < 1000 dpm Lieferant C: k < 7 Ausfälle von n = 10000, d. h. < 700 dpm Damit ergibt sich aus der statistisch relevanten Abschätzung der Messresultate eine Umkehrung der Bewertungsskala. Der Lieferant C ist am besten! Bei Lieferant A müssten 1430 Bauelemente ohne Fehler getestet werden, um die gleiche Bewertung wie Lieferant C zu erlangen. Lieferant A hätte dann k < 1 Ausfälle von 1430, d. h. 106 /1430 = 700 dpm. Je niedriger die nachzuweisenden Ausfallraten, desto größer muss die Stichprobe sein, die getestet wird. Hohe Produktqualität (d. h. niedrige Ausfallraten) lässt sich deshalb nur bei großen Fertigungsstückzahlen wirtschaftlich realisieren, bei denen man sich große Stichproben leisten kann.

170

4. Zufällige Messfehler

4.5.3 Statistische Prozessüberwachung In einem Fertigungsprozess unterliegen bestimmte Merkmale der gefertigten Güter Schwankungen – teils zufälliger, teils systematischer Art. Zufällige, mittelwertfreie Störungen wird man im Allgemeinen nicht verhindern können. Im Rahmen der Qualitätssicherung müssen aber systematische Fehler erkannt werden (vgl. Abschnitt 4.5.1). Ausgehend von den Messwerten der relevanten Merkmale gilt es, die darin enthaltenen zufälligen Fertigungsfehler zu unterdrücken, um den systematischen Fehler zu erhalten. Eines der einfachsten Verfahren dafür ist die Mittelwertbildung (vgl. Stichprobenmittelwert) 1 xi , n i=1 n

x ˆ=

(4.259)

bei der nach Abschnitt 4.2.4 zufällige, mittelwertfreie Fehler herausfallen. Eine systematische Abweichung bleibt dagegen erhalten. Beispiel 4.16 (Systematischer Fehler): Die Länge eines mechanischen Bauteils hat ein

Sollmaß von 100 mm. Nun werden sechs Bauteile aus der laufenden Produktion herausgenommen. Sie besitzen folgende Längen: 100,1 mm

100,5 mm

99,8 mm

100,0 mm

99,9 mm

100,3 mm

Hierbei ergibt sich ein Stichprobenmittelwert x ˆ von 100,1 mm. Unter der Annahme, dass die statistische Sicherheit bei diesem Probenumfang gewährleistet ist, kann man die Aussage treffen, dass bei der Fertigung ein systematischer Fehler von 0,1 mm auftritt. Da systematische Fehler im Allgemeinen auch zeitabhängig sind, wird man bei instationären Prozessen mit der einfachen Mittelwertbildung nicht weiterkommen. Deshalb wird der gleitende Mittelwert (engl. moving average, MA) eingeführt. Er wird definiert als zeitabhängiger Mittelwert über die letzten m Messungen, die im Abstand T aufgenommen wurden: x ¯(t) =

m−1 1  x(t − jT ) . m j=0

(4.260)

Zum Zeitpunkt t wird also der älteste Wert x(t − mT ) „vergessen“ und der neueste Wert x(t) hinzugenommen. Anschaulich ausgedrückt, wird über die Zeitreihe ein „Fenster“ der Breite mT geschoben, innerhalb dessen der Mittelwert gebildet wird (Abb. 4.25). Die einzelnen Werte x(t) der Zeitreihe werden innerhalb des Fensters gleich gewichtet.

4.5

Qualitätssicherung

171

Abbildung 4.25. Gleitender Mittelwert (MA-Filter) und Filterkoeffizienten für m = 5.

Nun schreibt man (4.260) auf symmetrische Summationsgrenzen um, x ¯(t) =

M  1 x(t − jT ) , 2M + 1

(4.261)

j=−M

wobei m = 2M + 1 gesetzt wurde, damit jeweils eine ungerade Anzahl an Werten x(t) gemittelt wird, was aber keine Einschränkung bedeutet. Der symmetrische gleitende Mittelwert x ¯(t) kann nicht schritthaltend in Echtzeit berechnet werden, da der gegenwärtige Ausgangswert x ¯(t) vom künftigen Eingangswert x(t + M T ) abhängig ist und das Filter somit akausal ist. Insofern muss bei der kausalen MA-Filterung eine Verzögerung (Totzeit) des Ausgangssignals der Länge M T in Kauf genommen werden. Beispiel 4.17 (MA-Filterung): Eine Zeitreihe stelle die Differenz zwischen den Mess-

werten und dem Sollwert dar. Dieses Fehlersignal x(t) bestehe aus einem systematischen Anteil s(t) und einem zufälligen, mittelwertfreien Anteil e(t): x(t) = s(t) + e(t) .

(4.262)

Wird M genügend groß gewählt, so wird der zufällige Anteil e(t) infolge der gleitenden Mittelung unterdrückt: x ¯(t) =

M  1 (s(t − jT ) + e(t − jT )) 2M + 1 j=−M

(4.263)

172

4. Zufällige Messfehler

1 = 2M + 1

=



M 

M 

s(t − jT ) +

j=−M

j=−M

 e(t − jT ) 

≈0

(4.264)



M  1 s(t − jT ) . 2M + 1

(4.265)

j=−M

Somit bleibt nur der geglättete systematische Anteil übrig. Bislang wurde über das Fehlersignal x(t) nur ausgesagt, dass es aus einem systematischen und einem zufälligen, mittelwertfreien Anteil besteht. Im Folgenden interessieren vor allem die Eigenschaften des systematischen Anteils s(t). Dieser muss nicht zwangsweise konstant sein, sondern kann auch einen zeitabhängigen Anteil besitzen, der z. B. durch ein Wegdriften der überwachten Messgröße vom Sollwert verursacht wird. Dann kann der Verlauf von s(t) z. B. durch das folgende Signalmodell angenähert werden: s(t) = a0 + a1 t + · · · + ak tk .

(4.266)

Der Modellansatz und die Filterung der zufälligen, mittelwertfreien Störungen e(t) bieten die Möglichkeit, den systematischen Fehler s(t) der Messwerte analytisch durch Bestimmung der Modellkoeffizienten ai zu beschreiben. Dies erlaubt eine Prädiktion des zeitlichen Verlaufs von s(t), wodurch sich ein unerwünschtes Wegdriften der Messgröße rechtzeitig erkennen lässt. So kennzeichnet in (4.266) der Parameter a1 die Drift des Prozesses. Allgemein wird bei der statistischen Prozessüberwachung kontrolliert, ob die Koeffizienten ai innerhalb eines vorgegebenen Toleranzintervalls liegen. Der in Abschnitt 2.1.2 eingeführte Least-Squares-Schätzer findet in der statistischen Prozessüberwachung breiten Einsatz, da er zufällige Fehler inhärent unterdrückt und als Ergebnis die gesuchten Modellkoeffizienten ai liefert. Dabei ist man nicht, wie in der Regressionsrechnung, auf Polynomansätze für den systematischen Fehler s(t) beschränkt. Im Gegensatz zum Approximationsansatz für Kennlinien (2.23) wird bei der statistischen Prozessüberwachung die zeitliche Abfolge der Messwerte y(t) modelliert. Das Signalmodell lautet in zeitkontinuierlicher Form y(t) = a0 ϕ0 (t) + a1 ϕ1 (t) + · · · + ak ϕk (t) + e(t) . Mit t = nT ergibt sich für m + 1 vergangene zeitdiskrete Messwerte: ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ a0 [n] yˆn ϕ0 [n] · · · ϕk [n] ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ yˆn−1 ⎥ ⎢ ϕ0 [n−1] · · · ϕk [n−1] ⎥ ⎢ a1 [n] ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ˆn = ⎢ . ⎥ = ⎢ y .. .. .. ⎥ · ⎢ .. ⎥ = Φn an . . . . ⎦ ⎣ . ⎦ ⎣ .. ⎦ ⎣ ϕ0 [n−m] · · · ϕk [n−m] ak [n] yˆn−m

(4.267)

(4.268)

4.5

Qualitätssicherung

173

Zu jedem Messzeitpunkt nT kann damit der Parametervektor an als Pseudoinverse −1 T Φn y n an = (ΦT n Φn )

(4.269)

bestimmt werden. Auf diese Weise können Veränderungen am Prozess frühzeitig entdeckt werden (Abb. 4.26).

** * * * * * * * * *

*

******* * *

** * **

Abbildung 4.26. Least-Squares-Schätzung des zukünftigen Messgrößenverlaufs y(t).

Beispiel 4.18 (Signalmodell): Gegeben sei ein Sinusgenerator, dessen Ausgangsspan-

nung u(t) = a3 · sin(2πfg t)

(4.270)

überwacht werden soll. Aus Vorüberlegungen sei bekannt, dass der Ausgangsverstärker durch Temperatureinflüsse eine lineare Drift a1 t und einen Offset a0 zeigt. Zusätzlich ist dem Ausgangssignal eine harmonische Netzstörung (fn = 50 Hz) überlagert. Die Phasenlage der harmonischen Schwingungen sei bekannt. Das messbare Signal einschließlich zufälliger Fehler e(t) ist y(t) = a0 + a1 t + a2 sin(2πfn t) + a3 sin(2πfg t) + e(t) .

(4.271)

Die Parameter a0 , a1 und a2 sind die systematischen Störeinflüsse, die es zu überwachen gilt. Für den zugehörigen LS-Schätzer ergibt sich zum Zeitpunkt t = nT : ⎤ ⎡ ⎤ ⎡ 1 nT sin(2πfn n T ) sin(2πfg n T ) a0 ⎥ ⎢ ⎢ 1 (n−1)T sin(2πfn (n−1)T ) sin(2πfg (n−1)T ) ⎥ ⎢ a1 ⎥ ⎥ ⎥·⎢ ˆn = ⎢ (4.272) y ⎥. .. .. .. ⎥ ⎢ ⎢ .. ⎣ a 2⎦ . . . ⎦ ⎣. a3 1 (n−m)T sin(2πfn (n−m)T ) sin(2πfg (n−m)T )

174

4. Zufällige Messfehler Gestörtes Generatorsignal

, ungestört

2 1,5 1 0,5 0 −0,5

0

0,01

0,06 0,05 0,04 0,03 0,02 Rekonstruiertes Generatorsignal , ungestört

0,07

0,08

0

0,01

0,02

0,03 0,04 0,05 0,06 Geschätzter Parameter für Drift

0,07

0,08

0

0,01

0,02

0,03

0,06

0,07

0,08

0,2 0 −0,2

40 30 20 10 0

0,04

0,05

Abbildung 4.27. Statistische Prozessüberwachung eines Signalgenerators mit sprunghafter Änderung des

Parameters a1 bei t = 0,045 s.

Durch die Bildung der Pseudoinversen im Zeitpunkt t = nT −1 T Φn y n an = (ΦT n Φn )

(4.273)

wird der Parametervektor an geschätzt, mit dem die systematischen Störeinflusse überwacht werden können. Abbildung 4.27 zeigt oben ein stark gestörtes Messsignal mit der Generatorfrequenz fg = 70 Hz und das mittels des LS-Schätzers rekonstruierte Signal (mittlere Grafik). Zum Zeitpunkt t = 0,045 s wurde eine Drift aufgeschaltet. Am Verlauf des geschätzten Parameters a1 (untere Grafik) erkennt man die gute Eignung des LS-Schätzers zur statistischen Prozessüberwachung.

4.6 Fehlerfortpflanzung Vielfach ist das gesuchte Messergebnis y nicht unmittelbar gleich dem Messwert, sondern berechnet sich vielmehr aus mehreren Messwerten xi nach der Funktion y = f (x1 , x2 , . . . , xn ) = f (x)

mit

x = (x1 , x2 , . . . , xn )T .

(4.274)

4.6

Fehlerfortpflanzung

175

Ein einfaches Beispiel für eine derartige Funktion ist der Stichprobenmittelwert y =  x ˆ = n1 i xi . In einem weiteren Beispiel kann der Wirkungsgrad eines Dampferzeugers nicht direkt gemessen werden, sondern muss aus den Einzelmesswerten Heizwert des Brennstoffes, Zuführungsrate des Brennstoffes, Dampftemperatur und Dampfmenge pro Zeit bestimmt werden. Da aber die Einzelmesswerte xi im Allgemeinen fehlerbehaftet sind, also um den Wert Δxi = xi − xi0

(4.275)

vom richtigen Wert xi0 abweichen, wird auch das daraus berechnete Messergebnis y um einen gewissen Betrag Δy vom richtigen Messergebnis abweichen. Das Fehlerfortpflanzungsgesetz liefert eine Abschätzung dieses Fehlers Δy aus den Einzelmessfehlern Δxi . Der Fehler des Messergebnisses y kann mit Hilfe der Taylor-Entwicklung abgeschätzt werden. Bei hinreichend kleinen Messfehlern |Δxi | können die Glieder höherer Ordnung vernachlässigt werden und man erhält:   ∂f (x)   Δxi . (4.276) Δy = y − y0 ≈ ∂xi x0 i Dabei beschreibt ∂f (x)/∂xi die Empfindlichkeit der Funktion f (x) für den Messwert xi . Manchmal sind nicht die Messfehler Δxi bekannt, sondern nur ihre Grenzen6 Δxg,i . Dann lässt sich die Fehlergrenze Δyg des Messergebnisses analog zu (4.276) berechnen:     ∂f (x)    Δyg ≈ (4.277)  ∂xi  Δxg,i . i

x0

Abhängig von der Art der mathematischen Verknüpfung f (x) der Einzelmesswerte xi lassen sich zwei wichtige Sonderfälle von (4.276) unterscheiden: Ist y eine Linearkombination (Addition/Subtraktion) der Messwerte xi , y = f (x) = a1 x1 + a2 x2 + · · · + an xn ,

(4.278)

so ergibt sich der Fehler des Messergebnisses nach (4.276) zu: Δy ≈ a1 Δx1 + a2 Δx2 + · · · + an Δxn .

(4.279)

6 Fehlergrenzen sind vereinbarte oder garantierte Höchstwerte für betragsmäßige Abweichungen des angezeigten Wertes eines Messsystems vom richtigen Wert.

176

4. Zufällige Messfehler

Der absolute Gesamtfehler Δy ist also die Summe aller mit den Koeffizienten ai gewichteten Einzelfehler. Im Falle einer multiplikativen Verknüpfung der Messwerte xi gemäß α2 αn 1 y = f (x) = a1 xα 1 · a2 x2 · . . . · an xn

(4.280)

(Produkt-/Quotientenbildung) rechnet man bevorzugt mit dem relativen Fehler. Mit den partiellen Ableitungen αi ∂f (x) αi −1 1 n = a1 x α · . . . · an x α , n = y· 1 · . . . · αi a i x i ∂xi xi

(4.281)

erhält man aus (4.276) den folgenden Ausdruck für den absoluten Gesamtfehler Δy: Δy ≈ y ·

n  i=1

αi

Δxi . xi

(4.282)

Der relative Gesamtfehler Δy/y resultiert demnach aus der Summe der relativen, mit den jeweiligen αi gewichteten Einzelfehler Δxi /xi . Zufällige Messfehler werden meist durch ihre Standardabweichung σxi oder durch ihre Varianz σx2i beschrieben. Bei betragsmäßig kleinen, zufälligen Messfehlern Δxi gilt für den Erwartungswert des Messergebnisses μy ≈ y0 , weshalb sich dessen Varianz σy2 wie folgt approximieren lässt: ; ; < 2 < 2 σy2 = E y − μy ≈ E (y − y0 ) (4.283) ⎧ ⎫    ⎨  ∂f (x)  ⎬  ∂f (x)   (xi − xi0 )  (xj − xj0 ) ≈E (4.284)   ⎩ ⎭ ∂xi x0 ∂xj x0 i

  ∂f (x)   = ∂xi  i



j

x0

 ∂f (x)  · ∂xj 

j

E{(xi − xi0 ) (xj − xj0 )}

(4.285)

x0

  ∂f ∂f (x0 ) (x0 ) Cxi xj , ∂x ∂x i j i j

(4.286)

wobei in der letzten Zeile für die partiellen Ableitungen die verkürzte Schreibweise gemäß (2.119) verwendet wurde. Im Falle stochastisch unabhängiger Messwerte xi wird die Kovarianz (4.45) zu Cxi xj = σx2i δij . Damit folgt das Gauß’sche Fehlerfortpflanzungsgesetz: σy2



 ' ∂f i

∂xi

(2 (x0 )

σx2i .

(4.287)

4.6

Fehlerfortpflanzung

177

Die Varianz des Messergebnisses y resultiert somit aus einer gewichteten Addition der Varianzen der einzelnen Messwerte xi . Sind die Messwerte statistisch abhängig, so verwendet man den Korrelationskoeffizienten ρxi xj zur Berechnung der Fehlerfortpflanzung: (2  ' ∂f   ∂f ∂f (x0 ) σx2i + (x0 ) (x0 ) σxi σxj · ρxi xj . (4.288) σy2 ≈ ∂x ∂x ∂x i i j i i j =i

Wird das Messergebnis y als Produkt oder als Quotient mehrerer Messwerte xi gebildet, so folgt aus (4.282) für den relativen Fehler: Δy  Δxi = αi · . y0 xi0 i=1 n

(4.289)

Die relative Varianz ist damit ⎧ 2 ⎫ ) 2* n ⎨  σy2 Δy Δxi ⎬ =E αi · =E ⎩ y02 y02 xi0 ⎭

(4.290)

i=1

=

n  n 

) αi αj E

i=1 j=1

=

n  n 

αi αj

i=1 j=1

Δxi Δxj xi0 xj0

*

C xi xj . xi0 xj0

(4.291)

(4.292)

Für stochastisch unabhängige Messwerte xi beträgt die Kovarianz nach (4.45): Cxi xj = σx2i δij .

(4.293)

Nach dem Gauß’schen Fehlerfortpflanzungsgesetz erhält man damit die relative Varianz zu n  σy2 σ2 = αi2 x2i . 2 y0 xi0 i=1

(4.294)

Beispiel 4.19 (Fehler bei der Massebestimmung): Die Masse einer in einem zylindri-

schen Tank gelagerten Flüssigkeit soll bestimmt werden. Der Durchmesser des Tanks sei d, der gemessene Flüssigkeitsstand der Flüssigkeit h, die Dichte ρ. Die gelagerte Masse bestimmt sich aus der Beziehung  2 d ·ρ·h. (4.295) m=π 2

178

4. Zufällige Messfehler

Mit αd = 2, αρ = 1 und αh = 1 errechnet sich die relative Varianz der Masse m bei statistisch unabhängigen Messwerten aus (4.294) zu σ 2  σ 2  σ 2  σ 2 ρ m d h =4 + + . (4.296) m d h ρ Ist der Durchmesser auf σd /d = 1 % bestimmt, die Höhe auf σh /h = 0,5 % und die Dichte auf σρ /ρ = 0,9 %, so erhält man damit  σm = 4 + 0,25 + 0,81 % = 2,2 % (4.297) m für die relative Streuung der Masse.

4.7 Literatur [1] J. Beyerer, M. Richter und M. Nagel. Pattern recognition: introduction, features, classifiers and principles. De Gruyter, Berlin, Boston, 2018. [2] L. Fahrmeir, R. Künstler, I. Pigeot und G. Tutz. Statistik. Springer, Berlin, Heidelberg, New York, 5. Auflage, 2007. [3] P. G. Hoel. Introduction to mathematical statistics. J. Wiley and Sons, New York, 1984. [4] F. Jondral und A. Wiesler. Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure. Teubner, Stuttgart, Leipzig, 2000. [5] A. Papoulis und S. Unnikrishna Pillai. Probability, random variables and stochastic processes. McGraw-Hill, New York, 4. Auflage, 2002. [6] K. R. Popper. Logik der Forschung. Akademie Verlag, Berlin, 3. Auflage, 2007. [7] F. Puente León und H. Jäkel. Signale und Systeme. De Gruyter Oldenbourg, Berlin, 7. Auflage, 2019. [8] D. W. Scott. On optimal and data-based histograms. Biometrika, 66(3):605–610, 1979. [9] M. R. Spiegel und J. Liu. Mathematical handbook of formulas and tables. McGraw-Hill, New York, 2. Auflage, 1999. [10] M. D. Springer. The algebra of random variables. J. Wiley and Sons, New York, 1979. [11] A. Steland. Basiswissen Statistik. Springer, Berlin, Heidelberg, New York, 2. Auflage, 2010.

Kapitel 5 Dynamisches Verhalten von Messsystemen

5

5

5

Dynamisches Verhalten von Messsystemen

5.1 Beschreibung von Messsystemen . . . . . . . . . . . . 5.1.1 Systemeigenschaften . . . . . . . . . . . . . . . 5.1.2 Lineare, zeitinvariante Systeme (LTI-Systeme) . ¨ . . . . . . . . . . . . . . . . . . . . . . 5.1.3 Stabilitat

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

181 181 182 184

5.2 Empirische Analyse von Messsystemen . . 5.2.1 Kennwerte der Sprungantwort . . . . 5.2.2 Nichtlineares dynamisches Verhalten 5.2.3 Bestimmung des Frequenzganges .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

185 186 187 188

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

5.3 Verbesserung des dynamischen Systemverhaltens . . . . . . . . . . . . 190 5.3.1 Optimierung der Systemparameter . . . . . . . . . . . . . . . . . 192 ¨ 5.3.2 Anderung der Systemstruktur . . . . . . . . . . . . . . . . . . . . 193 5.4 Parameteroptimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1 Kriterium verschwindende Momente der Impulsantwort“ . . . ” 5.4.2 Kriterium konstanter Amplitudengang fur ¨ kleine Frequenzen“ ” 5.4.3 Kriterium konstanter Realteil des Frequenzganges“ . . . . . ” 5.4.4 ITAE-Kriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.4.1 System 1. Ordnung . . . . . . . . . . . . . . . . . . 5.4.4.2 System 2. Ordnung . . . . . . . . . . . . . . . . . . 5.4.5 Kriterium quadratisches Fehlerintegral“ . . . . . . . . . . . . ” ¨ 5.5 Strukturanderung zur Optimierung des Zeitverhaltens . . . . . . . . . 5.5.1 Kompensation des Zeitverhaltens . . . . . . . . . . . . . . . . 5.5.2 Zeitverhalten bei Gegenkopplung . . . . . . . . . . . . . . . . 5.5.2.1 P-Regler . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.2.2 PI-Regler . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

193 196 200 205 210 211 212 216

. . . . .

. . . . .

222 223 227 228 232

5.6 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

5 Dynamisches Verhalten von Messsystemen 5.1 Beschreibung von Messsystemen 5.1.1 Systemeigenschaften Unter einem System versteht man eine Menge zusammenhängender Komponenten, die der Erfüllung eines bestimmten Zweckes dienen. In der Messtechnik ist dieser Zweck meist die Umformung einer zeitabhängigen Messgröße u(t) zu einer Ausgangsgröße y(t). Im Folgenden wird ein System allgemein als eine Vorschrift zur Transformation eines Eingangssignals u(t) in ein Ausgangssignal y(t) aufgefasst. Mathematisch kann diese Vorschrift mit Hilfe des Operators S{ } beschrieben werden: y(t) = S{u(t)} .

(5.1)

Abhängig von der mathematischen Struktur dieser Abbildung werden verschiedene Klassen von Systemen unterschieden (Abb. 5.1). Der Einfachheit halber werden im Folgenden die Signale u(t) und y(t) als eindimensional angenommen; es ist jedoch problemlos möglich, diese Betrachtung auf mehrdimensionale Größen zu erweitern. Allgemeine Systeme P PP  PP   PP  Lineare Systeme Nichtlineare Systeme H   HH Bsp.: nichtlineare DGL, Kennlinienglied, Multiplizierglied HH   Lineare zeitLineare zeitvariante Systeme invariante Systeme Bsp.: lineare DGL mit zeitHH  HH abhängigen Koeffizienten   H Totzeitsysteme Rationale Glieder Bsp.: lineare DGL mit konstanten Koeffizienten

Abbildung 5.1. Klassifikation von Systemen.

Definition 5.1: Linearität

Bei linearen Systemen gelten das Superpositionsprinzip (Additivität) und das Verstärkungsprinzip (Homogenität). © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5_5

182

5. Dynamisches Verhalten von Messsystemen

Superpositionsprinzip: Treten am Eingang verschiedene Eingangssignale u1 (t), u2 (t), . . . auf, so addieren sich ihre Auswirkungen auf das Ausgangssignal y(t) unabhängig voneinander zur Gesamtwirkung. Verstärkungsprinzip: Ver-n-facht man das Eingangssignal u(t), so ver-n-facht sich auch das Ausgangssignal y(t).  Besteht demnach ein Eingangssignal aus der gewichteten Überlagerung mehrerer Signale, so bewirkt ein lineares System ein Ausgangssignal, welches der gewichteten Summe der jeweiligen Ausgangssignale entspricht: S{c1 u1 (t) + c2 u2 (t)} = c1 S{u1 (t)} + c2 S{u2 (t)} ,

ci ∈ IR .

(5.2)

Bei realen Systemen kann Linearität nur innerhalb gewisser Grenzen erreicht werden. Definition 5.2: Zeitinvarianz

Ein System S{ } heißt zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal u(t − t0 ) mit dem entsprechend zeitlich verschobenen Ausgangssignal y(t − t0 ) antwortet: y(t) = S{u(t)}



S{u(t − t0 )} = y(t − t0 ) .

(5.3)

Das Systemverhalten ist somit unabhängig von der Zeit t. Systeme, die (5.3) nicht genügen, heißen zeitvariant. 

Definition 5.3: Kausalität

Ein System S{ } heißt kausal, wenn das Ausgangssignal y(t) zu einem bestimmten Zeitpunkt t0 nur vom Verlauf des Eingangssignals u(t) zu Zeitpunkten t ≤ t0 abhängt. Die Antwort auf eine Erregung kann also nicht vor der Erregung selbst vorliegen. 

5.1.2 Lineare, zeitinvariante Systeme (LTI-Systeme) Lineare, zeitinvariante (engl. linear time-invariant, LTI) Systeme lassen eine einfache mathematische Behandlung zahlreicher wichtiger Systeme zu, weshalb sie in der Praxis eine große Bedeutung haben. Im Zeitbereich werden zeitkontinuierliche LTI-Systeme ohne Totzeit durch lineare Differentialgleichungen mit konstanten Koeffizienten beschrieben: ˙ + y(t) = K [am u(m) (t) + · · · + a1 u(t) ˙ + u(t)] bn y (n) (t) + · · · + b1 y(t)

(5.4)

mit n ≥ m für physikalisch realisierbare Systeme, wobei y (n) (t) =

dn y(t) dtn

(5.5)

5.1

Beschreibung von Messsystemen

183

die n-te zeitliche Ableitung von y(t) bezeichnet. Transformiert man (5.4) in den Laplace-Bereich und setzt dabei alle Anfangswerte zu null, so erhält man: Y (s) [bn sn + · · · + b1 s + 1] = K U (s) [am sm + · · · + a1 s + 1]

(5.6)

mit s ∈ C. Daraus folgt die Laplace-Übertragungsfunktion, mit der sich das dynamische Verhalten eines zeitkontinuierlichen LTI-Systems ohne Totzeit im Frequenzbereich beschreiben lässt [11]: Y (s) = G(0) G(s) = U (s)

m 

1+ 1+

aj s j

j=1 n 

,

m ≤ n,

(5.7)

bi s i

i=1

mit G(0) = K und den Systemparametern a = [a1 , a2 , . . . , am ]

T

und

T

b = [b1 , b2 , . . . , bn ] .

(5.8)

Für s = jω = j2πf erhält man aus der Übertragungsfunktion (5.7) den Frequenzgang G(f ) [11]. Beispiel 5.1 (System 2. Ordnung): Bei einem System mit Verzögerung 2. Ordnung

(PT2 -Glied) laute die Übertragungsfunktion G(s) =

1 , T 2 s2 + 2δT s + 1

(5.9)

wobei der Parameter δ die Dämpfung bezeichnet. Zur Beschreibung des dynamischen Systemverhaltens kann die Sprungantwort herangezogen werden, also die Antwort auf ein sprungförmiges Eingangssignal. Das System (5.9) besitzt die Sprungantwort ( ' 1 s∞,1 t 1 1 s∞,2 t . (5.10) h(t) = 1 + 2 e − e T (s∞,1 − s∞,2 ) s∞,1 s∞,2 Die Dämpfung δ beeinflusst maßgeblich das Einschwingverhalten des Systems. Für Dämpfungen δ ≥ 1 ergeben sich zwei reelle Polstellen s∞,1 und s∞,2 – derartige Systeme sind nicht schwingungsfähig und können als Reihenschaltung zweier PT1 -Glieder dargestellt werden. Für δ < 1 erhält man dagegen zwei konjugiert komplexe Polstellen, was zu einer schwingenden Einstellung der Sprungantwort führt. Ist für eine gegebene Anwendung kein Überschwingen erlaubt, so wird man den aperiodischen Grenzfall mit δ = 1 einstellen, denn für große Dämpfungen δ  1 wird der stationäre Endwert hingegen nur sehr langsam erreicht. Anstelle der mathematischen Modellbildung kann das Systemverhalten auch experimentell ermittelt werden. Dafür werden geeignete Testsignale an den Eingang des

184

5. Dynamisches Verhalten von Messsystemen

Systems gegeben. Der Verlauf des Ausgangssignals ist typisch für das jeweils betrachtete System und liefert Informationen über dessen dynamische Eigenschaften. Als Testsignale kommen insbesondere Sprungsignale und harmonische Funktionen in Frage (Abschnitt 5.2).

5.1.3 Stabilität Allen in diesem Kapitel vorgestellten Kriterien zur Verbesserung des dynamischen Verhaltens ist gemeinsam, dass die Stabilität gesondert zu prüfen ist. Die Anwendung eines Optimierungskriteriums ergibt nicht automatisch ein stabiles System. Satz 5.1: Stabilität von LTI-Systemen

Ein lineares, zeitinvariantes System ist stabil, wenn alle Polstellen der Übertragungsfunktion G(s) in der linken s-Halbebene liegen, also wenn die Bedingung {s∞i } < 0

∀i

(5.11) 

erfüllt ist [11].

Für Nennerpolynome vom Grad 3 oder höher ist die Berechnung der Polstellen zur Überprüfung auf Stabilität meist nur noch numerisch möglich. Die zahlreichen in der Literatur beschriebenen Stabilitätskriterien vermeiden aber die explizite Berechnung der Polstellen [4,6,8]. Das Hurwitz-Kriterium ist eine elegante Art, die Stabilität eines Systems anhand der Systemparameter zu prüfen [4]. Satz 5.2: Stabilitätskriterium nach Hurwitz

Gegeben sei ein Nennerpolynom mit reellen Koeffizienten: N (s) = λ0 sn + λ1 sn−1 + · · · + λn−1 s + λn ,

λ0 > 0 , λi ∈ IR .

Zur Stabilitätsprüfung bildet man die Hurwitz-Determinante    λ 1 λ3 λ 5 λ7 · · ·     λ 0 λ2 λ 4 λ6 · · ·     0 λ λ λ ···  1 3 5     H =  0 λ 0 λ 2 λ4 · · ·     0 0 λ1 λ3 · · ·     0 0 λ0 λ2 · · ·     . . . . ···  und von dieser die nordwestlichen Unterdeterminanten   λ λ   1 3 H1 = λ1 , ... , Hn . H2 =  ,  λ0 λ 2 

(5.12)

(5.13)

(5.14)

5.2

Empirische Analyse von Messsystemen

185

Sind alle Determinanten (5.15)

H1 , . . . , Hn > 0 ,

so liegen alle Nullstellen von N (s) in der linken s-Halbebene. Anderenfalls liegt mindestens eine Nullstelle auf der j-Achse oder rechts davon.  Lässt sich also das Hurwitz-Kriterium für das Nennerpolynom einer Übertragungsfunktion G(s) erfüllen, so ist das System stabil. Man beachte dabei die unterschiedliche Indizierung der Koeffizienten bi und λi im Polynom N (s). Beispiel 5.2 (Stabilität bei Systemen 3. Ordnung): Gegeben sei eine Übertragungsfunk-

tion G(s) = Z(s)/N (s) mit einem Nennerpolynom dritten Grades: N (s) = λ0 s3 + λ1 s2 + λ2 s + λ3 = 0 ,

λ0 > 0 .

Die Hurwitz-Determinante berechnet sich damit zu   λ λ 0    1 3   H =  λ0 λ2 0  .    0 λ 1 λ3 

(5.16)

(5.17)

Das System ist stabil, wenn alle nordwestlichen Unterdeterminanten positiv sind: !

H1 = λ1 > 0 ,   λ λ  !  1 3 H2 =   = λ1 λ 2 − λ 0 λ 3 > 0 ,  λ0 λ 2  !

(5.18) (5.19) (5.20)

H3 = H = λ3 H2 > 0 .

Damit sind sämtliche Bedingungen für die Parameter festgelegt. Das System 3. Ordnung ist somit stabil, wenn λ0 , λ1 , λ3 > 0

und

λ1 λ2 > λ0 λ3

(5.21)

gilt.

5.2 Empirische Analyse von Messsystemen Im idealen Messgerät soll das Ausgangssignal fehlerlos den zeitlichen Verlauf der Messgröße wiedergeben. Zur Beschreibung des dynamischen Verhaltens von Messsystemen wird an den Eingang ein Sprungsignal aufgegeben und die Abweichung der Ausgangsgröße von der idealen Sprungantwort als Fehler festgestellt. Abbildung 5.2

186

5. Dynamisches Verhalten von Messsystemen

T

Abbildung 5.2. Messeinrichtung und Kennwerte der Sprungantwort.

zeigt die Anordnung für einen Druckmesser sowie die Auswertung der Sprungantwort. Beim Aufbau der Anordnung muss darauf geachtet werden, dass der Messgrößensprung innerhalb einer Zeitdauer erfolgt, die etwa eine Größenordnung unter der Einstellzeit des Druckmessers liegt. Parallel dazu wird ein schneller Druckmesser mit elektrischem Ausgang – ein sogenanntes Präzisionsinstrument Gn (vgl. Abb. 1.5) – benötigt. Weiter muss die Einstellzeit des Datenerfassungsgerätes erheblich unter der Einstellzeit des Messgerätes liegen.

5.2.1 Kennwerte der Sprungantwort Beim Auswerten der Sprungantwort kann zwischen schwingender und aperiodischer Einstellung unterschieden werden (Abb. 5.2). Bei schwingender Einstellung werden folgende Kennwerte abgelesen: T1 : Zeit, die vergeht, bis der stationäre Wert y∞ zum ersten mal erreicht wird; τ : Zeit, die vergeht, bis ein Toleranzband von 1 % der Sprunghöhe y∞ nicht mehr verlassen wird; yu¨ : maximale Überschwingweite, angegeben in Prozent der Sprunghöhe y∞ . Bei aperiodischer Einstellung lässt sich das Verhalten eines Messsystems durch eine Reihenschaltung eines Totzeitgliedes und eines PT1 -Gliedes annähern. Durch

5.2

Empirische Analyse von Messsystemen

187

Anlegen einer Tangente im Wendepunkt tw der Sprungantwort (Wendetangentenverfahren) werden folgende Kennwerte abgelesen: Tt : Ersatztotzeit (Verzugszeit zwischen dem Sprungeinsatz und dem Schnittpunkt der Wendetangente mit der Nulllinie); T  : Ersatzzeitkonstante (Ausgleichszeit zwischen den Schnittpunkten der Wendetangente mit der Nulllinie und dem stationären Wert).

5.2.2 Nichtlineares dynamisches Verhalten Viele Messeinrichtungen, die statisch eine lineare Kennlinie haben, erweisen sich bei dynamischen Messungen als nichtlinear. Eine Messeinrichtung zeigt ein lineares Verhalten, wenn dem Eingangssignal mit der k-fachen Amplitude zu jedem Zeitpunkt auch das k-fache Ausgangssignal entspricht. In Abb. 5.3 ist neben linearem Verhalten (links) auch nichtlineares dynamisches Verhalten demonstriert (rechts). Dem doppelt so hohen Sprung entspricht zwar auch beim betrachteten nichtlinearen System im eingeschwungenen Zustand ein doppelt so großer Ausschlag. Der stationäre Wert wird aber für beide Sprunghöhen mit der gleichen Maximalgeschwindigkeit (d. h. Steigung der Sprungantwort) erreicht. Ein solches nichtlineares dynamisches Verhalten findet man oft bei Messeinrichtungen nach dem Kompensationsverfahren, wenn ein Stellglied in seinen möglichen Ausgangswerten begrenzt ist. Doch auch hier erweist sich die Sprungfunktion als ein geeignetes Signal, um das Zeitverhalten zu charakterisieren. Die Versuche sind dann allerdings mit verschiedenen Sprunghöhen und somit für unterschiedliche Werte der Messgröße durchzuführen.

Abbildung 5.3. Lineares und nichtlineares dynamisches Verhalten.

188

5. Dynamisches Verhalten von Messsystemen

5.2.3 Bestimmung des Frequenzganges Eine andere, deutlich aufwendigere Methode zur Bestimmung des dynamischen Fehlers ist die Messung des Frequenzganges mit Hilfe harmonischer Anregungen der Messgröße. Der Zeitaufwand ist beträchtlich, da viele Frequenzen der Messgröße angefahren und jeweils der stationäre Zustand des Messsystems abgewartet werden muss. Außerdem lassen sich von vielen technischen Messgrößen kaum harmonische Signale erzeugen, weil lineare Stellglieder nicht existieren.

0

0

–20

–20 –40

–40 0, 01

–60 0,1

1

10

100



0,1

1

10

100

0,1

1

10

100



–45°

–45°

–90°

–90° 0, 01

0, 01

–135°

0,1

1

10

100

0, 01

Abbildung 5.4. Aufnahme des Frequenzganges eines Druckmessers.

Abbildung 5.4 a) zeigt die Anordnung für einen Druckmesser. Ein Sinusgeber mit mechanischem oder elektrischem Ausgangssignal steuert einen Druckgeber, der mit linearer Kennlinie und kurzer Ansprechzeit ein harmonisches Drucksignal p(t) = |p0 | sin(2πf t)

(5.22)

liefert. Dieses Signal wirkt auf das zu untersuchende Messgerät G und parallel dazu auf einen erheblich schnelleren Druckaufnehmer Gn , für welchen ideales Übertragungsverhalten Gn (f ) = 1

(5.23)

angenommen wird (vgl. Abschnitt 5.3). Somit entspricht das Signal x(t) = |x0 | sin(2πf t) = |p0 | sin(2πf t)

(5.24)

5.2

Empirische Analyse von Messsystemen

189

am Ausgang des Referenzmessgerätes Gn gleichzeitig dem Signal am Eingang des untersuchten Messgerätes G. Bei Annahme eines linearen, stabilen Systems weist der Ausgang des Messgerätes G im eingeschwungenen Zustand ebenfalls einen sinusförmigen Verlauf y(t) = |y0 (f )| sin(2πf t + ϕy (f ))

(5.25)

auf, der sich jedoch im Allgemeinen in Amplitude und Phasenlage vom Eingangssignal x(t) unterscheidet. Beide Größen hängen von der Frequenz f ab. Schließlich werden für jede angefahrene Frequenz f beide Signale x(t) und y(t) im eingeschwungenen Zustand aufgezeichnet und, durch Auswertung ihrer Amplituden und Phasenlagen, der gesuchte Frequenzgang des Messsystems G(f ) wie folgt ermittelt: G(f ) =

|y0 (f )| jϕy (f ) |y0 (f )| jϕy (f ) ·e ·e = . |x0 | |p0 |

(5.26)

Der resultierende Frequenzgang wird als sogenanntes Bode-Diagramm dargestellt [11]. Dabei wird sowohl das Amplitudenverhältnis |G(f )| als auch die Phase ϕ(f ) = ∠G(f ) über der Frequenz aufgetragen. Als Frequenzachse wird der Logarithmus des Frequenzverhältnisses f /f0 mit der Bezugsfrequenz f0 verwendet. Abbildung 5.4 zeigt zwei Beispiele für Systeme mit unterschiedlichem dynamischen Verhalten. Amplitudengang: Der Betrag des Frequenzganges |G(f )| des Messsystems heißt Amplitudengang und wird in Dezibel aufgetragen, wobei   G(f ) = 20 lg |G(f )| (5.27) dB gilt. Oftmals wird der Betrag zuvor noch auf den Wert |G(0)| bezogen, um eine einheitliche Darstellung des Amplitudenganges für Systeme mit unterschiedlichen statischen Verstärkungen |G(0)| zu erhalten. Phasengang: Der Phasengang, also das Argument ϕ(f ) = ∠G(f ) des Frequenzganges, wird linear über der logarithmischen Frequenzachse aufgetragen (Abb. 5.4). Viele Messsysteme weisen Verzögerungsverhalten auf [4]. In den Abbildungen 5.4 b) und c) sind zwei häufig vorkommende Sonderfälle solcher Systeme zu sehen. Aus dem Bode-Diagramm lassen sich wichtige Kennwerte über das dynamische Verhalten des jeweiligen Messsystems ablesen. PT1 -Verhalten: Bei monoton fallendem Amplitudengang werden die Eckfrequenz fe und die zugehörige Phase ϕe = ϕ(fe ) abgelesen. Die Eckfrequenz ist erreicht, √ wenn die Amplitude auf 2/2 des Maximalwertes |G(0)| oder um 3 dB abgefallen ist. Bei Systemen mit PT1 -Verhalten ergibt sich dabei eine Phase von ϕe = −45◦ .

190

5. Dynamisches Verhalten von Messsystemen

Für Frequenzen f  fe konvergiert dann der Amplitudengang gegen eine Asymptote der Steigung −20 dB/Dekade1 . PT2 -Verhalten: Systeme mit PT2 -Verhalten sind unter gewissen Umständen schwingungsfähig (vgl. Bsp. 5.1). In diesem Fall kann es zu einer Resonanzüberhöhung yR kommen, die als größter Wert des Amplitudenganges abgelesen werden kann. Bei hinreichend ausgeprägtem Resonanzmaximum beträgt die Phase für die zugehörige Resonanzfrequenz ϕR ≈ −90◦ . Nicht schwingungsfähige Systeme lassen sich dagegen durch eine Reihenschaltung zweier PT1 -Glieder darstellen und haben ihr Amplitudenmaximum an der Stelle f = 0. In beiden Fällen fällt der Amplitudengang für Frequenzen f  f0 mit einer Steigung von −40 dB/Dekade. Die in den Bildern dargestellten Frequenzgänge weisen beide Tiefpassverhalten auf. Es gibt jedoch auch Messgeräte für dynamische Messungen, die Hoch- oder Bandpassverhalten aufweisen. Dort werden die entsprechenden Werte für die untere Grenzfrequenz mit angegeben. Zu beachten ist hierbei, dass eine Normierung auf |G(0)| natürlich keinen Sinn ergibt, wenn die Übertragungsfunktion für f = 0 den Wert null annimmt. Die aus dem Frequenzgang ermittelten Kennwerte geben die Abweichungen vom idealen Zeitverhalten wieder. Als ideal wird ein Messsystem verstanden, das für beliebige Frequenzen den folgenden konstanten Frequenzgang besitzt: Gideal (f ) = 1



|G(f )| = 1

und

∠G(f ) = 0

∀f.

(5.28)

Bei nichtlinearem Zeitverhalten müssen zusätzlich verschiedene Amplituden der Eingangsgröße untersucht werden. Die Angabe eines Frequenzganges ist dann allerdings nicht mehr allgemein möglich. Anstelle des Frequenzganges kann aber die zusätzlich noch von der Amplitude der Eingangsschwingung |x0 | abhängige Beschreibungsfunktion N (|x0 |, f ) angegeben werden [3]. Neben der iterativen Anregung eines Messsystems mit harmonischen Schwingungen gibt es noch eine Reihe anderer Verfahren zur Identifikation des dynamischen Systemverhaltens [7, 9]. Ein weiteres Verfahren zur Identifikation von Übertragungsfunktionen ist in Abschnitt 6.5 dargestellt.

5.3 Verbesserung des dynamischen Systemverhaltens Anhand des Beispiels 5.1 wurde deutlich, dass die Systemparameter a und b der Übertragungsfunktion G(s) nach (5.7) das Einschwingverhalten eines Messsystems beeinflussen. Daraus lässt sich unmittelbar eine Vorgehensweise zur Verbesserung des dynamischen Systemverhaltens ableiten: die Parameter sind so einzustellen, 1

Eine Dekade bezeichnet ein Frequenzintervall, dessen Grenzen sich um den Faktor 10 unterscheiden.

5.3

Verbesserung des dynamischen Systemverhaltens

191

-

Abbildung 5.5. Verbesserung des dynamischen Verhaltens von Messgeräten.

dass das Zeitverhalten des Messsystems die Forderungen an Schnelligkeit und Überschwingen erfüllt. Die Aufgabe, das Zeitverhalten eines Messsystems zu verbessern, wird in Abb. 5.5 dargestellt. Das Messsignal u(t), überlagert von einem Störsignal n(t), wirkt auf das Messsystem mit der Übertragungsfunktion G(s, a, b). Das Ausgangssignal y(t) wird mit dem idealen, unverfälschten Signal yideal (t) verglichen. Das Fehlersignal (engl. error) e(t) = y(t) − yideal (t)

(5.29)

wird nun verschiedenen Kriterien unterworfen, um geeignete Parameter a und b für ein gewünschtes Zeitverhalten des Systems zu erhalten. In diesem Kapitel wird der Einfluss der Störgröße zunächst vernachlässigt: (5.30)

n(t) = 0 .

Die Größe G(0) in der Übertragungsfunktion (5.7) ist von besonderer Bedeutung, wie im Folgenden gezeigt wird. Mit dem Endwertsatz der Laplace-Transformation lim y(t) = lim s · Y (s)

t→∞

(5.31)

s→0

folgt für die Sprungantwort eines Messsystems lim y(t) = lim s · G(s)

t→∞

s→0

1 = G(0) . s

(5.32)

Der stationäre Messwert, der nach Beendigung aller Einschwingvorgänge (d. h. für t → ∞) angenommen wird, entspricht also gerade dem Wert der Übertragungsfunktion G(s) an der Stelle s = 0. Dieser Wert G(0) beschreibt die Empfindlichkeit Si der idealen stationären Kennlinie. Damit ergibt sich folgende Forderung für die ideale

192

5. Dynamisches Verhalten von Messsystemen

Übertragungsfunktion eines Messsystems: Gideal (s) = G(0) .

(5.33)

Diese Forderung bedeutet, dass das System für alle Frequenzen das gleiche Verhalten zeigen soll wie im stationären Fall. Daraus ergibt sich sofort, dass für Systeme mit G(0) = 0, also für Hochpässe und Bandpässe, alle Kriterien versagen, die auf der Bedingung (5.33) basieren. Für solche Systeme sind gesonderte Betrachtungen nötig. In der Messtechnik wird man allerdings zumeist Systeme mit G(0) = 0 antreffen. Für sie werden Kriterien zur Optimierung des dynamischen Systemverhaltens abgeleitet. Dabei lassen sich zwei prinzipiell verschiedene Vorgehensweisen unterscheiden: die Optimierung der Systemparameter (Abschnitt 5.3.1) und die Änderung der Systemstruktur (Abschnitt 5.3.2).

5.3.1 Optimierung der Systemparameter Die Kriterien zur Optimierung der Systemparameter gehen alle von der Darstellung im Frequenzbereich gemäß (5.7) aus. Die Aufgabe ist es, durch gezieltes Verändern der Koeffizienten ai und bi das dynamische Verhalten des Systems zu optimieren. Die Struktur des Systems wird dabei nicht verändert. Alle im Folgenden aufgelisteten Kriterien werden ausführlich in Abschnitt 5.4 behandelt. Momente der Impulsantwort: Das Kriterium der verschwindenden Momente der Impulsantwort sollte man nur dann anwenden, wenn geschwindigkeitstreue oder beschleunigungstreue Systeme verlangt werden. Sind danach noch weitere freie Parameter verfügbar, kann man zusätzlich eines der anderen Kriterien anwenden. Konstanter Amplitudengang: Dieses Kriterium bringt der Erfahrung nach ein durchaus brauchbares Einschwingverhalten. Meist bleiben die Überschwingweiten der Sprungantwort unter 10 %. Konstanter Realteil: Bei diesem Kriterium wird ein möglichst konstanter Realteil des Frequenzganges angestrebt. Dahinter steht die allgemeine Aussage, dass Frequenzgänge Überschwingweiten der Sprungantwort von weniger als 20 % bewirken, wenn ihr Realteil im Arbeitsbereich konstant ist und bei höheren Frequenzen abfällt. Diese Überschwingweiten sind zwar meist größer als beim Kriterium vom konstanten Amplitudengang, aber für Messeinrichtungen durchaus noch akzeptabel. ITAE-Kriterium: Dieses Kriterium liefert, wenn über n − 1 Parameter des Nennerpolynoms verfügt werden kann, sehr brauchbare Übergangsfunktionen mit geringen Überschwingweiten. Stehen weniger Parameter für die Dimensionierung zur Verfügung, ist man auf Rechnersimulationen angewiesen. Analytische Lösungen existieren nur für Systeme mit verschwindenden Momenten der Impulsantwort.

5.4

Parameteroptimierung

193

Quadratisches Fehlerintegral: Das Integral über den quadratischen Fehler lässt sich analytisch gut in der Frequenzgangdarstellung behandeln. Oft hat die Anwendung länger andauernde, kleine Oszillationen um den stationären Wert zur Folge. Für Systeme höherer Ordnung werden die Beziehungen allerdings unhandlich und erfordern längere numerische Rechnungen.

5.3.2 Änderung der Systemstruktur Anstatt die Koeffizienten ai und bi des Systems zu verändern, versucht man hierbei, durch Hinzufügen weiterer Übertragungsglieder das dynamische Verhalten des resultierenden Gesamtsystems zu verbessern. Dies kann durch Reihenschaltung von Kompensationsgliedern oder durch Rückkopplungsschleifen erfolgen. Dabei wird die Struktur des ursprünglichen Systems verändert. Beide Ansätze werden ausführlich in Abschnitt 5.5 diskutiert. Kompensation: Bei der Kompensation werden die Koeffizienten ai und bi des Messsystems nicht unmittelbar verändert. Vielmehr wird dort versucht, die das Einschwingverhalten bestimmenden dominanten Pole der Übertragungsfunktion durch entsprechende Nullstellen zu kompensieren. Das Verfahren liefert nur dann befriedigende Ergebnisse, wenn die dominanten Pole bekannt sind, und wenn deren Abhängigkeit von Störgrößen kompensiert werden kann. Gegenkopplung: In Abschnitt 5.5.2 wird gezeigt, dass die proportionale Gegenkopplung von Messsystemen weniger geeignet ist, das Einschwingverhalten zu verbessern. In vielen Fällen wird das Messsystem durch die Gegenkopplung instabil.

5.4 Parameteroptimierung In diesem Abschnitt wird auf verschiedene Verfahren zur optimalen Einstellung der Systemparameter a und b eingegangen. Die Anwendung der in diesem Abschnitt behandelten Optimierungskriterien soll später jeweils an zwei Beispielen demonstriert werden, die zunächst kurz vorgestellt werden sollen. Beispiel 5.3 (Federwaage): Als einfaches Messsystem 2. Ordnung wird eine Federwaa-

ge nach Abb. 5.6 betrachtet. Mit dem mechanischen Gesetz von Newton, nach welchem die Summe aller Kräfte gleich null ist,  Fi = 0 , (5.34) i

und den einzelnen Kraftkomponenten, m g : Gewichtskraft, mx ¨ : Massenträgheitskraft,

194

5. Dynamisches Verhalten von Messsystemen

Abbildung 5.6. Federwaage.

β x˙ : Dämpferkraft und c x : Federkraft, erhält man die Differentialgleichung des Feder-Masse-Dämpfer-Systems: F = mg = mx ¨ + β x˙ + c x ,

(5.35)

wobei g die Erdbeschleunigung, β die Dämpfungskonstante und c die Federkonstante bezeichnen. Die Übertragungsfunktion der Federwaage resultiert daraus durch Laplace-Transformation: G(s) =

1 X(s) = . 2 F (s) ms + βs + c

(5.36)

Mit den Abkürzungen ω02 =

c m

und

2δ β = ω0 c

(5.37)

erhält man eine Darstellung, welche die Dämpfung δ als Parameter enthält, der Ziel der Optimierung ist: G(s) =

1 · c

s2 ω02

1 . + 2δ ωs0 + 1

(5.38)

Der stationäre Endwert des Systems ist nach dem Endwertsatz der Laplace-Transformation lim s G(s)

s→0

1 1 = G(0) = . s c

(5.39)

Die physikalischen Parameter m, c und β sind immer positiv, so dass nach Satz 5.2 das System immer stabil ist.

5.4

Parameteroptimierung

195

Beispiel 5.4 (Messsystem 3. Ordnung mit zwei freien Parametern): Am Beispiel eines

Messsystems, das als Regelkreis vorliegt, soll eine komplexere Optimierungsaufgabe mit zwei frei wählbaren Parametern vorgestellt werden. Die Struktur des Messsystems ist in Abb. 5.7 dargestellt. Es handelt sich um ein System mit zwei reellen Zeitkonstanten T1 , T2 und einem vorgeschalteten PI-Regler mit den wählbaren reellen Parametern V und Tk , wobei Tk = T1 , T2 gelten soll.

Abbildung 5.7. Strukturbild eines Messsystems mit zwei freien Parametern V und Tk .

Die Übertragungsfunktion des offenen Kreises lautet Go (s) = V

1 + Tk s , s (1 + T1 s)(1 + T2 s)

T 1 , T2 , Tk , V > 0 .

(5.40)

Daraus erhält man die Übertragungsfunktion des geschlossenen Kreises zu G(s) =

Go (s) 1 + Go (s)

=V

(5.41)

1 + Tk s T1 T2 s3 + (T1 + T2 )s2 + (1 + V Tk )s + V

(5.42)

oder, in der Form von (5.7), G(s) =

1 + Tk s 1 + b 1 s + b2 s 2 + b3 s 3

(5.43)

mit b1 =

1 + V Tk , V

b2 =

T1 + T2 V

und

b3 =

T1 T2 . V

(5.44)

Mit dem Endwertsatz der Laplace-Transformation folgt der stationäre Endwert des Systems zu lim s G(s)

s→0

1 = G(0) = 1 . s

(5.45)

Die Stabilitätsbedingung für ein System 3. Ordnung lautet nach (5.21) b1 b2 > b3

⇔ ⇔

T 1 T2 1 + V Tk > V T1 + T2 1 1 Tk > T 2 − . 1 + T2 /T1 V

(5.46) (5.47)

196

5. Dynamisches Verhalten von Messsystemen

Abbildung 5.8. Sprungantworten des Systems 3. Ordnung bei verschiedenen Parametern.

Wenn Tk > T2 und V > 0 gewählt wird, ist die Ungleichung immer erfüllt: Tk > T2 > T2

1 1 − . 1 + T2 /T1 V

(5.48)

Für die Beispiele wird mit den Systemparametern T1 = 0,2 s und T2 = 0,4 s gearbeitet. Abbildung 5.8 zeigt die Sprungantworten des Beispielsystems für die Parameter V = 1 und V = 10 sowie Tk = 0,2 s und Tk = 4 s. Die unterschiedlichen Einschwingvorgänge zeigen die Notwendigkeit geeigneter Kriterien für die Bestimmung der Parameter.

5.4.1 Kriterium „verschwindende Momente der Impulsantwort“ Das Ausgangssignal y(t) des Messsystems erhält man durch Faltung des Eingangssignals u(t) mit der Impulsantwort g(t) des Messsystems: "∞ y(t) = g(t) ∗ u(t) =

g(τ ) u(t − τ ) dτ .

(5.49)

−∞

Das Eingangssignal u(t − τ ) wird um t herum in eine Taylor-Reihe u(t − τ ) ≈

n 

i

(−1) ui (t) · τ i

(5.50)

i=0

mit

 1 di u(t − τ )  1 di u(t) ui (t) = · · =  i! dti i! dti τ =0

(5.51)

5.4

Parameteroptimierung

197

entwickelt. Damit lässt sich das Faltungsintegral (5.49) als Summe schreiben: y(t) ≈

n 

"∞ i

(−1) ui (t) ·

i=0

τ i g(τ ) dτ .

(5.52)

−∞

Analog zur Wahrscheinlichkeitstheorie (Kapitel 4) lassen sich auch von einer Impulsantwort g(t) sogenannte Momente definieren. Das i-te Moment der Impulsantwort berechnet sich wie folgt: "∞ τ i g(τ ) dτ .

gi =

(5.53)

−∞

Mit der Bedingung g(τ ) = 0 für τ < 0 bei kausalen Systemen können die Momente der Impulsantwort gi mit der Übertragungsfunktion G(s) verknüpft werden. Dazu wird die Laplace-Transformierte "∞ G(s) =

g(τ ) e−sτ dτ

(5.54)

0

mehrfach nach s abgeleitet:  "∞ di G(s)  i i = (−1) τ i g(τ ) dτ = (−1) gi . dsi s=0

(5.55)

0

Die Systemfunktion G(s) ist somit das Analogon zur charakteristischen Funktion (4.70) der Wahrscheinlichkeitstheorie, aus der sich ebenfalls die Momente einer Wahrscheinlichkeitsdichte berechnen lassen. Mit diesen Definitionen lässt sich das Ausgangssignal in (5.52) wie folgt darstellen:  n n   di G(s)  i (−1) ui (t) · gi = ui (t) · (5.56) y(t) ≈ dsi s=0 i=0 i=0 bzw. mit (5.51)

  d2 G(s)  1 dG(s)  ¨(t) + u + ··· . y(t) ≈ u(t) G(0) + u(t) ˙ ds s=0 2 ds2 s=0

(5.57)

Idealerweise sollte die Ausgangsgröße der Messgröße verzögerungsfrei entsprechend yi (t) = u(t) · G(0) folgen, so dass alle Ableitungen  di G(s)  = 0, i ∈ {1, 2, . . . , n} , dsi s=0

(5.58)

(5.59)

198

5. Dynamisches Verhalten von Messsystemen

verschwinden sollten. Statt nun die Ableitungen explizit zu berechnen, wird die Differenz (G(s) − G(0)) zwischen der Übertragungsfunktion des Messsystems G(s) und der idealen Übertragungsfunktion G(0) gebildet: G(s) − G(0) = G(0)

(a1 − b1 ) s + (a2 − b2 ) s2 + · · · . 1 + b 1 s + b2 s 2 + · · ·

(5.60)

Denkt man sich (G(s) − G(0)) in eine Potenzreihe nach s entwickelt, so sind die i-ten Ableitungen in s = 0    (i)  (G(s) − G(0))  = G(i) (s) =0 (5.61) s=0

s=0

gerade null, wenn die entsprechenden Koeffizienten ai = bi gleich sind. Für (5.62)

a1 = b1 verschwindet das erste Moment der Impulsantwort,   = G (s = 0) = 0 , (G(s) − G(0))  s=0

(5.63)

das Messsystem folgt dem Eingangssignal u(t) geschwindigkeitstreu. Wird zusätzlich für (5.64)

a2 = b2 auch das zweite Moment der Impulsantwort gleich null,   = G (s = 0) = 0 , (G(s) − G(0))  s=0

(5.65)

so folgt das Messsystem dem Eingangssignal u(t) beschleunigungstreu. Die Ableitungen u(t) ˙ und u ¨(t) gehen dann nicht mehr in die Ausgangsgröße y(t) ein. Das Kriterium ergibt schwach gedämpfte Einschwingvorgänge. Schließlich sei noch auf zwei Nachteile des Kriteriums „verschwindende Momente der Impulsantwort“ hingewiesen. Bei Geschwindigkeitstreue ist zwar nach (5.55) das erste Moment der Impulsantwort gleich null,  "∞ dG(s)  = − τ g(τ ) dτ = 0 , ds s=0

(5.66)

0

bei der Integration können sich aber positive und negative Flächen gegenseitig aufheben (Abb. 5.9). Bei vielen Frequenzgängen ist außerdem das Zählerpolynom vom Grad null, so dass das Verfahren überhaupt nicht angewendet werden kann.

5.4

Parameteroptimierung

199

Abbildung 5.9. Impulsantwort und Moment 1. Ordnung.

Beispiel 5.5 (Federwaage): Soll die Federwaage aus Bsp. 5.3 ein geschwindigkeitstreu-

es Messsystem werden, so muss nach (5.62) a1 = b1

(5.67)

bzw. in (5.38) b1 = 2δ = 0

(5.68)

gelten. Das System wird nach Satz 5.1 instabil, d. h. ein geschwindigkeitstreues System ist nicht zu erreichen.

Beispiel 5.6 (Messsystem 3. Ordnung mit zwei freien Parametern): Ist für das Mess-

system 3. Ordnung aus Bsp. 5.4 Geschwindigkeitstreue erwünscht, so muss nach (5.62) a1 = b1 und demnach Tk =

1 + Tk V V

(5.69)

gelten, vgl. (5.43). Diese Bedingung ist nur für V →∞

(5.70)

erfüllbar und lässt sich in der Praxis nur näherungsweise realisieren. Das System bleibt aber für alle V stabil.

200

5. Dynamisches Verhalten von Messsystemen

5.4.2 Kriterium „konstanter Amplitudengang für kleine Frequenzen“ Das Verfahren „konstanter Amplitudengang für kleine Frequenzen“ verlangt lediglich, dass der Betrag des Frequenzganges für kleine Frequenzen konstant bleibt. Über den Phasengang wird hierbei nicht verfügt. Diese Forderung ist erheblich schwächer als die in Abschnitt 5.4.1.

Abbildung 5.10. Konstanter Amplitudengang für kleine Frequenzen.

Abbildung 5.10 zeigt den qualitativen Verlauf zweier Amplitudengänge |G(f )|, welche diese Forderung erfüllen, wobei |G(f )|2 = G(f ) G∗ (f )

(5.71)

eine in f gerade Funktion |G(f )|2 = F (f 2 ) ist. Um das Kriterium „konstanter Amplitudengang für kleine Frequenzen“ zu erfüllen, setzt man die Ableitungen zu null: ∂ (i) F (f 2 ) = 0, ∂ (f 2 )(i)

i ∈ N.

(5.72)

Statt die höheren Ableitungen von F (f 2 ) explizit zu berechnen, stellt man die Funktion F (f 2 ) am einfachsten wie folgt dar:  2i Ai (2πf ) i 2 2 F (f ) = G (0)  mit A0 = B0 = 1 . (5.73) 2k Bk (2πf ) k

Durch Subtraktion von G2 (0) erhält man:  2i (Ai − Bi ) (2πf ) F (f 2 ) − G2 (0) = i  G2 (0) . 2k Bk (2πf )

(5.74)

k

Wenn für alle i < j die Beziehung Ai = Bi gilt, dann verschwinden alle i-ten Ableitungen von F (f 2 ) an der Stelle f 2 = 0, i < j.

5.4

Parameteroptimierung

201

Die Koeffizienten Ai und Bi errechnen sich aus dem Frequenzgang:  ν aν (j2πf ) ν G(f ) = G(0)  μ bμ (j2πf )

(5.75)

μ



ν



a2ν (−1) (2πf ) + j2πf

ν



ν



μ



a2ν+1 (−1) (2πf )

= G(0) 

ν

μ



b2μ (−1) (2πf ) + j2πf



μ

b2μ+1 (−1) (2πf )

(5.76)

μ

mit a0 = b0 = 1. Um F (f 2 ) zu erhalten, muss der Betrag des Zählers und des Nenners berechnet werden. Für die Koeffizienten des Zählers ergibt sich: Ai = (−1)

i

i  

 a2ν a2(i−ν) − a2ν+1 a2(i−ν)−1 .

(5.77)

ν=0

Im 2. Term der Summendarstellung wird der Index von a2(i−ν)−1 für i = 0 negativ. Es gilt a−1 = 0. Die ersten Koeffizienten Ai lauten ausgeschrieben: A0 = a20 = 1 ,

(5.78)

A1 = −a0 a2 − a2 a0 + a1 a1 ,

(5.79)

A2 = a4 a0 + a2 a2 + a0 a4 − a1 a3 − a3 a1 ,

(5.80)

A3 = −a6 a0 − a4 a2 − a2 a4 − a0 a6 + a5 a1 + a3 a3 + a1 a5 .

(5.81)

Entsprechend lassen sich die Bi berechnen. Damit lässt sich das Kriterium für einen konstanten Amplitudengang angeben. Ein Frequenzgang der Gestalt  ν aν (j2πf ) ν mit a0 = b0 = 1 (5.82) G(f ) = G(0)  μ bμ (j2πf ) μ

hat für kleine Frequenzen einen konstanten Amplitudengang, wenn nacheinander folgende Bedingungen

a23

a21 − 2a2 a0 = b21 − 2b2 b0 ,

(5.83)

a22 + 2a0 a4 − 2a1 a3 = b22 + 2b0 b4 − 2b1 b3 ,

(5.84)

+ 2a1 a5 − 2a0 a6 − 2a2 a4 =

b23

+ 2b1 b5 − 2b0 b6 − 2b2 b4 ,

(5.85)

oder allgemein i  

i     a2ν a2(i−ν) − a2ν+1 a2(i−ν)−1 = b2ν b2(i−ν) − b2ν+1 b2(i−ν)−1

ν=0

ν=0

(5.86)

202

5. Dynamisches Verhalten von Messsystemen

erfüllt werden. Sind einige Gleichungen erfüllt, so gibt ein „>“- oder ein „ 0 für Stabilität.

,

(5.87)

Für solche Systeme ist |G(f )| ≡ 1. In der Systemtheorie werden solche Systeme als Allpässe bezeichnet [11]. Messsysteme sind allerdings von Natur aus keine Allpass-, sondern Minimalphasensysteme. Wendet man das Kriterium auf ein Messsystem mit dem Nennergrad n an, so werden nicht alle n Gleichungen erfüllt werden. Beispiel 5.7 (Butterworth-Filter): Als Beispiel eines Systems mit konstantem Ampli-

tudengang bei kleinen Frequenzen soll das Butterworth-Tiefpassfilter untersucht werden, das durch den folgenden Amplitudengang gegeben ist: 1 

|G(f )|2 = 1+

f f0

2n

(5.88)

.

Die Pole der Übertragungsfunktion G(s) ergeben sich mit s = j2πf aus der Gleichung  2n s 1+ =0 (5.89) j2πf0 zu s∞ν = 2πf0 · eϕν

mit

ϕν =

(2ν + 1)π , 2n

ν ∈ {1, . . . , 2n} .

(5.90)

Die Pole liegen auf einem Kreis mit dem Radius 2πf0 und dem Ursprung als Mittelpunkt. Für ein stabiles System kommen nur die Pole in der linken Halbebene in Frage. Für n = 2 erhält man mit ϕ1 = 34 π und ϕ2 = 54 π die Übertragungsfunktion 2

(2πf0 )  3 5 s − 2πf0 ej 4 π s − 2πf0 ej 4 π

G(s) = 

(5.91)

5.4

Parameteroptimierung

203

Abbildung 5.11. Impulsantwort g(t) und Amplitudengang |G(f )|2 eines Butterworth-Filters der Ordnung

n = 2.

und durch inverse Laplace-Transformation die Impulsantwort √ √ √ g(t) = 2 · 2πf0 e− 2πf0 t sin 2πf0 t .

(5.92) 2

Die Impulsantwort g(t) und der quadrierte Amplitudengang |G(f )| sind in Abb. 5.11 dargestellt.

Beispiel 5.8 (Federwaage): Nach (5.84) gilt

a21 − 2 a2 a0 = b21 − 2 b2 b0 ,

(5.93)

was bei der Übertragungsfunktion (5.38) der Federwaage aus Bsp. 5.3 zu 0 = 4δ 2 − 2 und damit zur Dämpfung √ 2 = 0,707 δ= 2

(5.94)

(5.95)

führt. In der Messtechnik heißt diese Dämpfung Oszillographendämpfung. Die Sprungantwort h(t) hat eine leichte Überschwingung von 5 % bezogen auf den stationären Endwert (Abb. 5.12).

Beispiel 5.9 (Messsystem 3. Ordnung mit zwei freien Parametern): Für das System 3.

Ordnung aus Bsp. 5.4 sind zwei Bedingungen für einen konstanten Amplitudengang zu erfüllen. Die erste folgt aus (5.84), a21 − 2 a2 a0 = b21 − 2 b2 b0 ,

(5.96)

204

5. Dynamisches Verhalten von Messsystemen

Abbildung 5.12. Sprungantwort h(t) eines Systems 2. Ordnung mit Oszillographendämpfung.

bei Berücksichtigung der Koeffizienten aus (5.43) zu 2

(1 + Tk V ) T1 + T 2 , −2 2 V V 1 Tk V = V (T1 + T2 ) − . 2 Tk2 =

(5.97) (5.98)

Die zweite Bedingung aus (5.84), a22 + 2 a0 a4 − 2 a1 a3 = b22 + 2 b0 b4 − 2 b1 b3 ,

(5.99)

ergibt T1 T 2 1 + T k V (T1 + T2 )2 , −2 V2 V V

0=

(5.100)

was mit (5.97) in 1−

1 (T1 + T2 ) + V (T1 + T2 ) = 2 2T1 T2

2

(5.101)

resultiert. Daraus berechnen sich die gesuchten Parameter zu V =

T12 + T22 + T1 T2 2T1 T2 (T1 + T2 )

(5.102)

(T12 + T22 )(T1 + T2 ) . T12 + T22 + T1 T2

(5.103)

und Tk =

Abbildung 5.13 zeigt die resultierende Sprungantwort und den Amplitudengang. Die Sprungantwort zeigt wie auch bei der Federwaage (Abb. 5.12) ein nur leichtes Überschwingen von 5 %. Man erkennt sehr gut den konstanten Bereich des Amplitudenganges für kleine Frequenzen.

5.4

Parameteroptimierung

205

1 0,8 0,6 0,4 0,2 0

0,5

0

2

1,5

1

2,5

1 0,8 0,6 0,4 0,2 0

−1

10

0

10

1

10

Abbildung 5.13. Sprungantwort und Amplitudengang eines Systems 3. Ordnung nach Anwendung des Kriteriums „konstanter Amplitudengang für kleine Frequenzen“.

5.4.3 Kriterium „konstanter Realteil des Frequenzganges“ Die Impulsantworten g(t) kausaler Systeme können in einen geraden Teil gg (t) und einen ungeraden Teil gu (t) zerlegt werden (vgl. Abb. 5.14): g(t) = gg (t) + gu (t) .

(5.104)

Abbildung 5.14. Zerlegung einer Impulsantwort g(t) in einen geraden Teil gg (t) und einen ungeraden Teil

gu (t).

206

5. Dynamisches Verhalten von Messsystemen

Die Fourier-Transformation von g(t) ergibt: "∞ G(f ) =

−j2πf t

g(t) e

"∞ g(t) (cos(2πf t) − j sin(2πf t)) dt

dt =

−∞

(5.105)

−∞

"∞

"∞ gu (t) cos(2πf t) dt − j

= −∞





gg (t) sin(2πf t) dt

−∞



=0

"∞

"∞ gg (t) cos(2πf t) dt − j

+



=0

−∞

gu (t) sin(2πf t) dt

(5.106)

−∞

= {G(f )} + j {G(f )}

(5.107)

mit "∞ {G(f )} =

(5.108)

gg (t) cos(2πf t) dt , −∞

"∞ {G(f )} = −

(5.109)

gu (t) sin(2πf t) dt .

−∞

Der Realteil {G(f )} lässt sich durch eine Integration von t = 0 bis ∞ berechnen, da die Impulsantwort gg (t) gerade ist: "∞ {G(f )} = 2

(5.110)

gg (t) cos(2πf t) dt . 0

Da die Fourier-Transformierte einer geraden Funktion nur Cosinusterme enthält, lässt sich die inverse Fourier-Transformierte gg (t) wie folgt angeben: "∞

"∞ {G(f )} cos(2πf t) df = 2

gg (t) = −∞

{G(f )} cos(2πf t) df .

(5.111)

0

Für t ≥ 0 gilt: "∞ {G(f )} cos(2πf t) df .

g(t) = 2 gg (t) = 4

(5.112)

0

Die Impulsantwort g(t) kann für t ≥ 0 allein aus dem Realteil {G(f )} des Frequenzganges G(f ) bestimmt werden. Für ein ideales Einschwingverhalten kann {Gi (f )} = G(0) = const.

(5.113)

5.4

Parameteroptimierung

207

gefordert werden, womit die Impulsantwort gi (t) = 4 G(0) · δ(t) ,

t ≥ 0,

(5.114)

und die ideale Ausgangsfunktion des Messsystems yi (t) = 4 G(0) · δ(t) ∗ u(t) = 4 G(0) u(t) ,

t ≥ 0,

(5.115)

wären. Die Forderung nach einem konstanten Realteil des Frequenzganges ergibt entsprechende Bedingungen für die Koeffizienten aν und bν der Übertragungsfunktion G(f ): ∞ 

G(f ) = G(0)

ν=0 ∞ 

aν (j2πf ) bμ (j2πf )

ν

(5.116)

μ

μ=0 ∞ 

= G(0)

ν=0 ∞ 

ν

a2ν (−1) (2πf ) μ

b2μ (−1) (2πf )



+ j2πf



+ j2πf

μ=0

∞  ν=0 ∞ 

ν



μ



a2ν+1 (−1) (2πf )

(5.117)

. b2μ+1 (−1) (2πf )

μ=0

Die Erweiterung mit dem konjugiert komplexen Nenner N ∗ (f ) ergibt einen realen Nenner N (f ) N ∗ (f ). Der Realteil der Übertragungsfunktion ist damit {Z N ∗ } mit N N∗ ∞ ∞     ν 2ν  μ 2μ  {Z N ∗ } = a2ν (−1) (2πf ) b2μ (−1) (2πf ) {G(f )} =

ν=0

+ (2πf )

(5.119)

μ=0 2

∞  

ν

a2ν+1 (−1) (2πf )

2ν 

ν=0

=

(5.118)

∞  ∞ 

∞  

μ

b2μ+1 (−1) (2πf )

2μ 

μ=0

a2ν b2μ (−1)

ν+μ

(2πf )

2(ν+μ)

ν=0 μ=0

+ (2πf )

2

∞ ∞  

a2ν+1 b2μ+1 (−1)

ν+μ

(2πf )

2(ν+μ)

.

(5.120)

ν=0 μ=0

Mit der Substitution der Indizes mit k =ν+μ

und

= ν + μ,

ν ≤ k,

ν ≤ ,

(5.121)

208

5. Dynamisches Verhalten von Messsystemen

erhält man {Z N ∗ } =

k ∞  

k

a2ν b2(k−ν) (−1) (2πf )

2k

k=0 ν=0

+ (2πf )

2

∞  

2

(5.122)

a2ν+1 b2( −ν)+1 (−1) (2πf ) .

=0 ν=0 2

In den zweiten Summenterm wird der Faktor (2πf ) hereingezogen, wodurch sich der Exponent von (2πf ) auf k = + 1 erhöht. Damit wird {Z N ∗ } =

∞  k  

k

a2ν b2(k−ν) (−1) (2πf )

2k

k=0 ν=0 k

− a2ν+1 b2(k−ν)−1 (−1) (2πf )

2k 

(5.123)

.

Dabei wird der Koeffizient b−1 für ν = k als b−1 = 0 definiert. Entsprechend erhält man für den Nenner  ∞  ∞   ν 2ν i 2i ∗ NN = (5.124) b2ν (−1) (2πf ) b2i (−1) (2πf ) ν=0

+ (2πf )

 2

i=0 ∞ 



ν

b2ν+1 (−1) (2πf )



∞ 

ν=0

=

 i

b2i+1 (−1) (2πf )

2i

i=0

k ∞   

k

b2ν b2(k−ν) (−1) (2πf )

2k

k=0 ν=0 k

− b2ν+1 b2(k−ν)−1 (−1) (2πf )

2k 

.

(5.125)

Der Realteil der Übertragungsfunktion lässt sich mit k

Ak = (−1) ·

k  

 a2ν b2(k−ν) − a2ν+1 b2(k−ν)−1 ,

(5.126)

ν=0 k

Bk = (−1) ·

k  

b2ν b2(k−ν) − b2ν+1 b2(k−ν)−1



(5.127)

ν=0

darstellen als ∞ 

{G(f )} = G(0) k=0 ∞  k=0

Ak (2πf )

2k

. Bk (2πf )

2k

(5.128)

5.4

Parameteroptimierung

209

Die Bedingung für einen konstanten Realteil {G(f )} lautet dann Ak = Bk : k  

a2ν b2(k−ν) − a2ν+1 b2(k−ν)−1



ν=0

=

k  

 b2ν b2(k−ν) − b2ν+1 b2(k−ν)−1 .

(5.129)

ν=0

Für die ersten Koeffizienten ist dies b 0 = a0 = 1 , −a0 b2 + a1 b1 − a2 b0 = b21 − 2b0 b2 ,

(5.130)

a0 b4 − a1 b3 + a2 b2 − a3 b1 + a4 b0 = b22 + 2b0 b4 − 2b1 b3 , −a0 b6 +a1 b5 −a2 b4 +a3 b3 −a4 b2 +a5 b1 −a6 b0 = b23 −2b0 b6 +2b1 b5 −2b2 b4 . Die Bedingungen für einen konstanten Realteil {G(f )} sind praktisch nur für kleine Frequenzen f erfüllbar. Der Realteil des Frequenzganges fällt hinter dem konstanten Teil ab, wenn in der ersten unerfüllten Gleichung statt des Gleichheitszeichens ein „“-Zeichen gilt. Beispiel 5.10 (Federwaage): Für die Federwaage aus Bsp. 5.3 gilt nach (5.130)

−a0 b2 + a1 b1 − a2 b0 = b21 − 2 b0 b2 ,

(5.131)

woraus man mit (5.38) und a0 = 1 die Dämpfung δ=

1 2

(5.132)

erhält. Diese Einstellung bringt größere Überschwinger als im Fall des konstanten Amplitudenganges für kleine Frequenzen, wie an der Sprungantwort des Systems Abb. 5.15 zu erkennen ist.

Beispiel 5.11 (Messsystem 3. Ordnung mit zwei freien Parametern): Für das Messsys-

tem 3. Ordnung aus Bsp. 5.4 sind zwei Bedingungen für einen konstanten Realteil des Frequenzganges zu erfüllen. Für die erste Bedingung (5.130) erhält man mit (5.43): −a0 b2 + a1 b1 − a2 b0 = b21 − 2 b0 b2 ,

(5.133)

Tk V = V (T1 + T2 ) − 1 .

(5.134)

210

5. Dynamisches Verhalten von Messsystemen

Abbildung 5.15. Sprungantwort h(t) des Systems 2. Ordnung mit der Dämpfung δ = 0,5.

Die zweite Bedingung lautet: a0 b4 − a1 b3 + a2 b2 − a3 b1 + a4 b0 = b22 + 2b0 b4 − 2b1 b3 , −Tk

T1 T 2 (T1 + T2 )2 T1 T 2 1 + T k V = , −2 2 V V V V

(5.135) (5.136)

was mit (5.134) die folgende Gleichung ergibt: V (T1 + T2 ) − 1 =

(T1 + T2 )2 − 2T1 T2 . T 1 T2

(5.137)

Daraus berechnen sich die gesuchten Parameter zu V =

T12 + T22 + T1 T2 T1 T2 (T1 + T2 )

und

Tk =

(T12 + T22 )(T1 + T2 ) . T12 + T22 + T1 T2

(5.138)

Abbildung 5.16 zeigt die resultierende Sprungantwort und den Realteil des Frequenzganges. Die Sprungantwort zeigt – wie auch die der Federwaage – größeres Überschwingen. Man erkennt sehr gut den konstanten Bereich des Realteils des Frequenzganges für kleine Frequenzen.

5.4.4 ITAE-Kriterium Das dieses Kriterium namensgebende Akronym ITAE steht für integral of time-multiplied absolute value of error. Als Testsignal u(t) dient eine Sprungfunktion, weshalb als ideales Ausgangssignal yideal (t) ebenfalls eine Sprungfunktion angesetzt wird. Das zu minimierende Gütemaß Q wird als Integral über den Betrag der mit der Zeit t multiplizierten Abweichung e(t) = y(t) − yideal (t) des Ausgangssignals vom idealen Ausgangssignal definiert: "∞

"∞ t · |e(t)| dt =

Q= 0

t · |y(t) − yideal (t)| dt 0

(5.139)

5.4

Parameteroptimierung

211

1,2 1 0,8 0,6 0,4 0,2 0

0

0,5

1

1,5

2

2,5

1 0,8 0,6 0,4 0,2 0

−1

1

0

10

10

10

Abbildung 5.16. Sprungantwort und Realteil des Frequenzganges eines Systems 3. Ordnung nach Anwen-

dung des Kriteriums „konstanter Realteil des Frequenzganges“.

"∞ t · |g(t) ∗ σ(t) − G(0) σ(t)| dt

=



min .

(5.140)

0

Länger andauernde Fehler wirken sich stark aus, da sie mit der Zeit t gewichtet werden. Fehler zu Beginn werden dagegen kaum gewertet. Die Anwendung des Kriteriums führt zu einer leicht schwingenden Einstellung. Die Integration über den Betrag des Fehlersignals ist für Systeme höherer Ordnung nur noch numerisch möglich.

5.4.4.1 System 1. Ordnung Die Übertragungsfunktion eines Messsystems 1. Ordnung sei G1 (s) = G1 (0)

ω0 , s + ω0

(5.141)

woraus für die Abweichung von der idealen Übertragungsfunktion G1 (0) der Ausdruck ΔG1 (s) = G1 (s) − G1 (0) = −G1 (0)

s s + ω0

(5.142)

resultiert. Mit dem Eingangssignal σ(t)

◦−•

s−1

(5.143)

212

5. Dynamisches Verhalten von Messsystemen

erhält man die Fehlerfunktion E(s) im Laplace-Bereich E(s) = ΔG1 (s) ·

1 1 = −G1 (0) · s s + ω0

(5.144)

und durch inverse Laplace-Transformation das zugehörige Zeitsignal e(t) = −G1 (0) · e−ω0 t .

(5.145)

Das zu minimierende ITAE-Gütemaß für das System 1. Ordnung ist damit: "∞ Q1 =

G1 (0) · t · e−ω0 t dt =

0

G1 (0) . ω02

(5.146)

Durch eine kleine Zeitkonstante 1/ω0 wird das Gütemaß Q1 minimiert.

5.4.4.2 System 2. Ordnung Bei einem System 2. Ordnung wird der Rechenaufwand bereits wesentlich höher: G2 (s) = G2 (0)

ω02 . s2 + b1 ω0 s + ω02

(5.147)

Die Abweichung von der idealen Übertragungsfunktion G2 (0) ist ΔG2 (s) = G2 (s) − G2 (0) = −G2 (0)

s 2 + b1 ω 0 s , s2 + b1 ω0 s + ω02

(5.148)

woraus sich der folgende Fehler der Sprungantwort im Laplace-Bereich ergibt: E(s) = ΔG2 (s)

1 s + b1 ω0 = −G2 (0) 2 . s s + b1 ω0 s + ω02

Mit den Definitionen b1 ω0 , α= 2 b1 α = cos ϕ , = δ= ω0 2 α = cot ϕ ω

7 b2 ω = ω0 1 − 41 , 7 ω b2 = 1 − 41 = sin ϕ , ω0

(5.149)

(5.150) (5.151) (5.152)

erhält man durch inverse Laplace-Transformation von (5.149) die Fehlerfunktion im Zeitbereich: G2 (0) −αt e (ω cos(ωt) + α sin(ωt)) ω G2 (0) −αt e sin(ωt + ϕ) . =− sin ϕ

e(t) = −

(5.153) (5.154)

5.4

Parameteroptimierung

213

Nun wird die Variablentransformation x = ωt + ϕ,

dx = ω dt ,

t=

x−ϕ ω

(5.155)

eingeführt, mit der das ITAE-Gütemaß (5.139) nach der Substitution die folgende Form annimmt: "∞ G2 (0) ϕ cot ϕ (5.156) e e−x cot ϕ (x − ϕ) | sin x| dx . Q2 = 2 ω sin ϕ ϕ  

I(x) Das Integral I(x) wird schrittweise berechnet, wobei sich an den Integrationszwischengrenzen jeweils das Vorzeichen des Integranden ändert. Auf diese Weise wird die Betragsbildung berücksichtigt:   ∞  G2 (0) ϕ cot ϕ i−1 Q2 = 2 e (−1) I(iπ) . (5.157) −I(ϕ) + 2 ω sin ϕ i=1 Die Integrale sind I(iπ) =

cos(iπ) sin2 ϕ (ϕ − iπ − sin(2ϕ)) , eiπ cot ϕ

(5.158)

I(ϕ) =

sin3 ϕ (4 sin2 ϕ − 3) . eϕ cot ϕ

(5.159)

Damit wird das Gütemaß  G2 (0) sin2 ϕ Q2 = 3 − 4 sin2 ϕ ω02

 ∞ 2  − cot ϕ(iπ−ϕ) + e (iπ − ϕ + sin 2ϕ) ; sin ϕ i=1

(5.160)

das Minimum folgt durch Differentiation für ϕ = 0,72 und b1 = 2 cos ϕ = 1,5. Daraus √ ergibt sich eine Dämpfung von δ = cos ϕ ≈ 1/ 2. Bei Systemen höherer Ordnung lässt sich das ITAE-Kriterium nicht mehr analytisch berechnen. Für solche Systeme werden daher im Folgenden die durch numerische Optimierung ermittelten Koeffizienten des Nennerpolynoms N (s) angegeben [1,5]. Dabei wird zwischen Systemen mit konstantem Zähler, geschwindigkeitstreuen Systemen und beschleunigungstreuen Systemen unterschieden. Zur Anpassung des Nennerpolynoms an die optimalen Polynome wird ω0n =

b0 bn

(5.161)

214

5. Dynamisches Verhalten von Messsystemen

eingeführt und weiter mit qi =

bi , ω0n−i bn

(5.162)

i = 1, . . . , n ,

gerechnet. Dann ist das Nennerpolynom N (s) = folgenden Gleichungen geeignet.



i

qi (s/ω0 ) für die Anwendung der

Für Systeme der Ordnung n G(s) = G(0)  n

1

= G(0)

bν s ν

1 N (s)

(5.163)

ν=0

mit konstantem Zählerpolynom wird das Nennerpolynom N (s): s + ω0 s2 + 1,505 ω0 s + ω02 s3 + 1,784 ω0 s2 + 2,172 ω02 s + ω03

(5.164)

s4 + 1,953 ω0 s3 + 3,347 ω02 s2 + 2,648 ω03 s + ω04 s5 + 2,068 ω0 s4 + 4,498 ω02 s3 + 4,674 ω03 s2 + 3,257 ω04 s + ω05 s6 +2,152 ω0 s5 +5,629 ω02 s4 +6,934 ω03 s3 +6,793 ω04 s2 +3,740 ω05 s+ω06 , b0 + b1 s für geschwindigkeitstreue Systeme G(s) = G(0)  wird N (s): n bν s ν ν=0

s2 + 3,2 ω0 s + ω02 s3 + 1,75 ω0 s2 + 3,25 ω02 s + ω03 s4 + 2,41 ω0 s3 + 4,93 ω02 s2 + 5,14 ω03 s + ω04

(5.165)

s5 + 2,19 ω0 s4 + 6,50 ω02 s3 + 6,30 ω03 s2 + 5,24 ω04 s + ω05 s6 + 6,12 ω0 s5 + 6,71 ω02 s4 + 8,58 ω03 s3 + 7,07 ω04 s2 + 6,76 ω05 s+ ω06 ,

für geschwindigkeits- und beschleunigungstreue Systeme G(s) = G(0)

b0 + b1 s + b2 s2 n  bν s ν ν=0

(5.166)

5.4

Parameteroptimierung

215

erhält man für N (s): s3 + 2,97 ω0 s2 + 4,94 ω02 s + ω03 s4 + 3,71 ω0 s3 + 7,88 ω02 s2 + 5,93 ω03 s + ω04

(5.167)

s5 + 3,81 ω0 s4 + 9,94 ω02 s3 + 13,44 ω03 s2 + 7,36 ω04 s + ω05 s6 + 3,93 ω0 s5 + 11,68 ω02 s4 + 18,56 ω03 s3 + 19,3 ω04 s2 + 8,06 ω05 s+ ω06 . Abbildung 5.17 zeigt die Sprungantworten mehrerer ITAE-optimaler Systeme mit konstantem Zählerpolynom nach (5.164). Der stationäre Endwert h∞ wird nach kurzer Zeit und bei nicht zu starken Überschwingungen erreicht.

Abbildung 5.17. ITAE-optimale Sprungantworten von Systemen der Ordnung n.

Beispiel 5.12 (Federwaage): Nach (5.164) ist für ein System 2. Ordnung wie die Feder-

waage aus Bsp. 5.3 der Koeffizient b1 = 1,505, d. h. die Dämpfung ist δ = 0,7525 ,

(5.168)

was nahezu der Oszillographendämpfung entspricht.

Beispiel 5.13 (Messsystem 3. Ordnung mit zwei freien Parametern): Das Beispielsys-

tem 3. Ordnung mit der Übertragungsfunktion (5.43) aus Bsp. 5.4 ist nach Bsp. 5.6 nicht geschwindigkeitstreu. Daher lassen sich die Nennerpolynome von (5.165) nicht anwenden. Da die optimalen Nennerpolynome nur für die angegebenen

216

5. Dynamisches Verhalten von Messsystemen

Klassen von Übertragungsfunktionen bekannt sind, muss in allen anderen Fällen eine numerische Optimierung vorgenommen werden.

5.4.5 Kriterium „quadratisches Fehlerintegral“ Als Gütemaß für die Systemparameterwahl wird beim Kriterium „quadratisches Fehlerintegral“ das Integral über den quadrierten Fehler e2 (t) bei sprungförmiger Erregung herangezogen: "∞

"∞ 2

(y(t) − yideal (t)) dt

2

Q=

e (t) dt = 0

(5.169)

0

"∞ 2

(g(t) ∗ σ(t) − G(0) · σ(t)) dt

=



min .

(5.170)

0

,∞ Das einfache Fehlerintegral 0 e(t) dt wäre nicht sinnvoll, da sich im Integral positive und negative Fehler gegenseitig aufheben würden. Aus (5.169) lässt sich ablesen, dass große Fehler sehr stark bewertet werden, kleine Fehler dagegen nicht so stark zu Buche schlagen. Zur analytischen Berechnung von Q wird vorausgesetzt, dass e(t) absolut integrierbar ist und damit dessen Fourier-Transformierte existiert. Für die Praxis bedeutet dies, dass limt→∞ e(t) = 0 gelten muss, was wegen der Beschränktheit der Fehlersignale |e(t)| < M eine realistische Annahme ist. Damit lässt sich Q aus (5.169) mit Hilfe des Parseval’schen Satzes [11] mit E ∗ (s) = E(−s) für s = j2πf berechnen: "∞

1 e (t) dt = 2π j

"j ∞

2

Q= 0

E(s) E(−s) ds .

(5.171)

−j ∞

Das Berechnungsverfahren nutzt die Symmetrieeigenschaft des Integranden E(s) E(−s) aus. Die Laplace-Transformierte E(s) habe die Form n−1 

E(s) =

ν=0 n 

aν s ν = bμ s μ

A(s) . B(s)

(5.172)

μ=0

Der Integrand in (5.171) ist dann E(s) E(−s) =

A(s) A(−s) . B(s) B(−s)

(5.173)

5.4

Parameteroptimierung

217

Er lässt sich in einen kausalen und einen antikausalen Teil aufspalten: A(s) A(−s) C(s) D(s) = + . B(s) B(−s) B(s) B(−s)

(5.174)

Multipliziert man (5.174) mit B(s) B(−s) und bedenkt ferner, dass A(s) A(−s) eine gerade Funktion ist, so folgt aus A(s) A(−s) = A(−s) A(s): C(s) B(−s) + D(s) B(s) = C(−s) B(s) + D(−s) B(−s)

(5.175)

bzw. (5.176)

D(s) = C(−s) . Für ein Messsystem n-ter Ordnung lautet das Gütekriterium dann 1 Qn = 2π j

"j∞ −j∞

"j∞ "j∞ C(s) C(−s) C(s) 1 2 ds + ds = ds . B(s) 2π j B(−s) 2π j B(s) −j∞ −j∞

    kausal

(5.177)

antikausal

Die Zusammenfassung zum Zweifachen des kausalen Teils ist möglich, da die Pole des Integranden symmetrisch zur imaginären Achse liegen. Dies lässt sich leicht zeigen, indem man im zweiten Integral −s = v, −ds = dv substituiert. Schließlich kann Qn mittels der inversen Laplace-Transformation ausgedrückt werden. Mit der Umkehrformel der Laplace-Transformation ⎧ ⎪ f (t) für t > 0 ⎪ "j∞ ⎨ 1 −1 st F (s) e ds = 0 L {F (s)} = (5.178) für t < 0 ⎪ 2π j ⎪ ⎩ 1 −j∞ f (+0) für t = 0 2

für t = 0 und der Definition F (s) = C(s)/B(s) lässt sich Qn schreiben als Qn = 2 · 12 f (+0) = f (+0) .

(5.179)

Mit dem Anfangswertsatz der Laplace-Transformation erhält man f (+0) = lim f (t) = lim s · t→+0

s→∞

C(s) . B(s)

(5.180)

B(s) ist ein Polynom n-ter Ordnung, C(s) hat die Ordnung (n−1). Zur Bestimmung von Qn genügt daher allein die Bestimmung zweier Koeffizienten: "∞ e2 (t) dt =

Qn = 0

cn−1 . bn

(5.181)

218

5. Dynamisches Verhalten von Messsystemen

Beispiel 5.14 (System 1. Ordnung): Für eine rationale Übertragungsfunktion 1. Ord-

nung sei das Fehlersignal im Laplace-Bereich E(s) =

A(s) a0 = b0 + b 1 s B(s)

(5.182)

und somit E(s) E(−s) =

C(−s) a20 ! C(s) + . = (b0 + b1 s) (b0 − b1 s) B(s) B(−s)

(5.183)

C(s) erhält man z. B. durch eine Partialbruchzerlegung, wobei die Pole s1 = −

b0 b1

und

s2 = +

b0 b1

(5.184)

sind. Damit wird < ; C(s) = Res E(s) E(−s), s1 = − bb01 = < ; C(−s) = Res E(s) E(−s), s2 = + bb10 =

a20 a2 = 0 , b0 2b0 b 0 + b1 b 1

(5.185)

a20 a20 = , 2b0 b0 + b1 bb01

(5.186)

womit das zu minimierende Gütemaß zu     a20 s a20 C (s) = lim = Q1 = lim s s→∞ s→∞ 2b0 (b0 + b1 s) B (s) 2b0 b1

(5.187)

resultiert. Im Folgenden soll noch eine allgemeine Berechnungsvorschrift für den Parameter cn−1 angegeben werden. Dazu muss (5.174) unter Verwendung von (5.176) gelöst werden: (5.188)

C(s) B(−s) + C(−s) B(s) = A(s) A(−s) bzw. n−1  i=0

ci si

n  k=0

k

bk (−s) +

n−1  i=0

ci (−s)

i

n  k=0

bk s k =

n−1  i=0

ai s i

n  k=0

k

ak (−s) .

(5.189)

5.4

Parameteroptimierung

219

Durch Auflösen gelangt man nach einem Koeffizientenvergleich zu folgendem linearen Gleichungssystem: ⎤ ⎡ ⎤ ⎡ c0 b0 0 0 0 0 · · · 0 ⎥ ⎢ b b b 0 0 ··· 0 ⎥ ⎢ −c1 ⎥ ⎢ ⎥ ⎢ 2 1 0 ⎥ ⎢ ⎥ ⎢ c2 ⎥ = Bn · cn ⎢ b 4 b3 b 2 b 1 b0 · · · 0 ⎥ · ⎢ ⎥ ⎢ ⎥ ⎢ .. .. ⎥ ⎢ ⎥ ⎢ .. .. . ⎦ ⎣ . . . ⎦ ⎣ n−1 0 0 ··· bn bn−1 cn−1 (−1) (5.190) ⎤ ⎡ a20 ⎥ ⎢ 2a0 a2 − a21 ⎥ ⎢ ⎥ 1⎢ 2 −2a a + a ⎥ = an . ⎢ 1 3 2 = ⎢ ⎥ 2⎢ .. ⎥ ⎦ ⎣ . n n−1 2 an−1 (−1) 2an−2 an + (−1) Die Berechnung von cn−1 erfolgt durch Anwendung der Cramer’schen Regel. Das Gleichungssystem sei nach (5.190) Bn · cn = an . Die Matrix B∗n ergibt sich aus der Matrix Bn , indem die letzte Spalte durch den Vektor cn ersetzt wird. Der gesuchte Koeffizient ist dann der Quotient der Determinanten n−1

(−1)

cn−1 =

1 |B∗n | . 2 |Bn |

(5.191)

Damit erhält man die allgemeine Formel für das quadratische Fehlerintegral: "∞ e2 (t) dt =

Qn = 0

|B∗n | cn−1 n−1 . = (−1) bn 2bn |Bn |

(5.192)

Im Folgenden sind einige Fehlerintegrale allgemein berechnet: Q2 =

a21 b0 + a20 b2 , 2 b0 b1 b2

(5.193)

Q3 =

a22 b0 b1 + (a21 − 2 a0 a2 ) b0 b3 + a20 b2 b3 , 2 b0 b3 (b1 b2 − b0 b3 )

(5.194)

Q4 =

a23 (b0 b1 b2 −b20 b3 )+(a22 −2a1 a3 )b0 b1 b4 +(a21 −2a0 a2 )b0 b3 b4 +a20 (b2 b3 b4 −b1 b24 ) 2b0 b4 (−b0 b23 −b21 b4 +b1 b2 b3 )

.

(5.195)

Die Beziehungen für Systeme höherer Ordnung n findet man in [10]. Mit wachsender Ordnung n werden die Gleichungen rasch unhandlich. Zur Minimierung des Kriteriums wird die Gütefunktion Qn nach sämtlichen Parametern pi abgeleitet, die den Einschwingvorgang beeinflussen: ∂Qn ! = 0, ∂pi

i = 1, . . . , m .

(5.196)

220

5. Dynamisches Verhalten von Messsystemen

Auf diese Weise erhält man die Parameter der Übertragungsfunktion, die zu einem optimalen Einschwingverhalten des Messsystems führen. Beispiel 5.15 (Federwaage): Für die Federwaage aus Bsp. 5.3 wird die Laplace-Trans-

formierte E(s) des Fehlers der Sprungantwort   − 2δ + ωs0 1 E(s) = (G(s) − G(0)) =  2 s c ω0 ωs0 + 2δ ωs0 + 1

(5.197)

betrachtet. Nach (5.194) lautet das Gütemaß für ein System 2. Ordnung   1 1 a2 b0 + a20 b2 Q2 = 1 +δ · = , 2 b0 b1 b2 4δ ω0

(5.198)

woraus man durch Differentiation dQ2 ! =0 dδ



δ=

1 2

(5.199)

den gesuchten Parameter δ erhält.

Beispiel 5.16 (Messsystem 3. Ordnung mit zwei freien Parametern): Aus (5.43) bildet

man die Laplace-Transformierte E(s) des Fehlers der Sprungantwort: 1 (G(s) − G(0)) s −1 − (T1 + T2 )s − T1 T2 s2 . = V + (1 + Tk V )s + (T1 + T2 )s2 + T1 T2 s3

(5.200)

E(s) =

(5.201)

Nach (5.194) erhält man für ein System 3. Ordnung das Gütemaß Q3 =

a22 b0 b1 + (a21 − 2 a0 a2 ) b0 b3 + a20 b2 b3 . 2 b0 b3 (b1 b2 − b0 b3 )

(5.202)

Durch Einsetzen der Koeffizienten wird daraus: Q3 =

(T1 T2 )2 V (1+Tk V )+((T1 +T2 )2 −2T1 T2 )V T1 T2 +(T1 +T2 )T1 T2 . V T1 T2 ((1 + Tk V )(T1 + T2 ) − V T1 T2 )

Durch Differentiation nach den beiden Parametern ∂Q3 ! =0 ∂V

und

∂Q3 ! =0 ∂Tk

(5.203)

erhält man zwei optimale Parametersätze: Tk1 = 0,25 ,

V1 = 10,4

sowie

Tk2 = 0,4 ,

V2 = 4,06 .

(5.204)

5.4

Parameteroptimierung

221

Beide Lösungen entsprechen einer Polkompensation. Die bessere Wahl für ein schnelles Einschwingverhalten ist die Kompensation des Pols mit der größeren Zeitkonstante. Das Überschwingen ist ähnlich wie beim Kriterium „konstanter Realteil des Frequenzganges“, wie in Abb. 5.18 erkannt werden kann. 1,5

1

0,5

0 0

0,5

1

1,5

2

2,5

Abbildung 5.18. Sprungantwort bei Verwendung der Kriterien „quadratisches Fehlerintegral“ und „kon-

stanter Realteil des Frequenzganges“.

Gewichtung des quadratischen Fehlers mit der Zeit Anders als z. B. das ITAE-Kriterium bewertet das Kriterium „quadratisches Fehlerintegral“ alle Fehler gleich stark, gleichgültig zu welchem Zeitpunkt sie auftreten. In den meisten praktischen Fällen wird man aber Fehler für kleine Zeiten t (d. h. während des Einschwingvorganges) eher tolerieren als Fehler im eingeschwungenen Zustand. Durch die zeitliche Gewichtung des Fehlerbetrags führt das ITAE-Kriterium zu einem besser gedämpftem Einschwingverhalten als das Kriterium „quadratisches Fehlerintegral“, wie man in Abb. 5.19 exemplarisch am Verlauf des Gütemaßes Q in Abhängigkeit von der Dämpfung δ für ein System 2. Ordnung erkennen kann. Bei einfacheren Systemen liegt es daher nahe, das Kriterium „quadratisches Fehlerintegral“ um eine Gewichtung des quadratischen Fehlers mit Potenzen der Zeit t zu ergänzen: "∞ e2 (t) tn dt .

Qn =

(5.205)

0

Derartige Kriterien lassen sich zumindest im Prinzip analytisch behandeln. Hierbei gehen Fehler bei großen Zeiten t stärker in das zu minimierende Gütemaß Qn ein.

222

5. Dynamisches Verhalten von Messsystemen

10 8 6 4 2

0

0,25

0,5

0,75

1

Abbildung 5.19. Gütemaß Q in Abhängigkeit von der Dämpfung δ bei einem System 2. Ordnung.

Nach der Parseval’schen Beziehung ist 1 Qn = 2πj

"∞ (−1)n −∞

dn E(s) · E(−s) ds . dsn

(5.206)

Mit Hilfe einer Partialbruchzerlegung des Integranden können die Pole in den kausalen und den antikausalen Teil aufgeteilt werden. Der kausale Teil wird über die linke Halbebene integriert, der antikausale über die rechte Halbebene. Der Integrand ist aber nicht mehr unbedingt eine symmetrische Funktion in s. Bei umfangreicheren Systemen können die Pole jedoch nicht mehr analytisch bestimmt werden, wodurch das Verfahren unpraktisch wird.

5.5 Strukturänderung zur Optimierung des Zeitverhaltens Alle bisher geschilderten Verfahren hatten eine Optimierung der Parameter der Übertragungsfunktion zum Ziel. Anstatt die Koeffizienten ai und bi des Systems zu verändern, kann das dynamische Systemverhalten durch Hinzufügen weiterer Übertragungsglieder verbessert werden. Dies kann durch Reihenschaltung von Kompensationsgliedern (Abschnitt 5.5.1) oder durch Rückkopplungsschleifen (Abschnitt 5.5.2) erfolgen.

5.5

Strukturänderung zur Optimierung des Zeitverhaltens

223

5.5.1 Kompensation des Zeitverhaltens In diesem Abschnitt wird ein Verfahren diskutiert, welches die Struktur des Frequenzganges durch Kompensation ändert, um ein besseres Zeitverhalten zu erreichen. Dabei wird ein schnelles Einschwingen des Messsystems angestrebt. Das Zeitverhalten eines linearen Systems wird bekanntlich durch die Lage der Pole der Übertragungsfunktion bestimmt. Die Übertragungsfunktion eines Systems ohne Totzeit ist allgemein m /

G(s) =

(s − s0j ) Z(s) j=0 = c· / , n N (s) (s − s∞i )

m ≤ n.

(5.207)

i=0

Bei der Lösung der Umkehrformel der Laplace-Transformation mit Hilfe des Residuensatzes wird das deutlich: einfache Pole s∞i führen im Zeitbereich zu Funktionen der Form es∞i t . Lediglich die Faktoren vor den Exponentialfunktionen werden durch den Zähler der Übertragungsfunktion gegeben. Mit Hilfe der Partialbruchzerlegung erhält man bei einfachen Polen die Übertragungsfunktion in Summendarstellung G(s) =

n  i=0

Ai , s − s∞i

(5.208)

die man einfach in den Zeitbereich zurücktransformieren kann: g(t) =

n 

Ai es∞i t · σ(t) .

(5.209)

i=0

Sind die Polstellen s∞i komplex, so treten auch konjugiert komplexe Pole bei s∗∞i auf, da g(t) eine reelle Funktion ist. Bei stabilen Systemen liegen alle Pole s∞i und s∗∞i in der linken s-Halbebene [11]. Die beiden Pole, die der imaginären Achse am nächsten liegen, welche also den betragsmäßig kleinsten Realteil haben, werden im Folgenden mit s∞0 = −δ0 + j2πf0 und s∗∞0 = −δ0 − j2πf0 bezeichnet. Diese sogenannten dominanten Pole bestimmen weitgehend das Zeitverhalten der Impulsantwort für große Zeiten: lim g(t) ≈ e−δ0 t (A0 ej2πf0 t + A∗0 e−j2πf0 t ) .

t→∞

(5.210)

Es liegt nun nahe zu versuchen, diese beiden dominanten Pole durch ein nachgeschaltetes Kompensationsglied GK (s) zu eliminieren (Abb. 5.20). Dafür wird der Übertragungsfunktion G(s) =

Z(s) Z(s) = N (s) M (s) · (s2 − (s∞0 + s∗∞0 ) s + s∞0 s∗∞0 )

(5.211)

224

5. Dynamisches Verhalten von Messsystemen

Abbildung 5.20. Strukturbild zur Kompensation des Zeitverhaltens.

in Reihe ein Kompensationsglied mit der Übertragungsfunktion GK (s) =

(s2 − (s0K + s∗0K ) s + s0K s∗0K ) (s2 − (s∞K + s∗∞K ) s + s∞K s∗∞K )

(5.212)

hinzugefügt. Zur Kompensation der dominanten Pole, damit ein insgesamt schnelleres Einschwingverhalten des Gesamtsystems resultiert, muss gelten: s0K = s∞0 ,

(5.213)

{s∞K } < {s∞0 } .

(5.214)

Die Übertragungsfunktion der gesamten Anordnung ist damit Gges (s) = G(s) · GK (s) =

M (s) · (s2

Z(s) . − (s∞K + s∗∞K ) s + s∞K s∗∞K )

(5.215)

Bei idealer Kompensation sind die dominanten Pole (s∞0 , s∗∞0 ) nicht mehr in Gges (s) enthalten. In der praktischen Anwendung ist eine ideale Kompensation aus zwei Gründen nicht möglich: Die Systemparameter (s∞0 , s∗∞0 ) ändern sich im Betrieb – beispielsweise durch Temperatureinflüsse oder Alterung: (s∞0 , s∗∞0 )



(s∞ , s∗∞ ) .

(5.216)

Die Systemparameter (s∞0 , s∗∞0 ) sind nicht exakt bekannt und können z. B. durch eine Systemidentifikation nur ungenau bestimmt werden: s∞ = s∞0 + Δs∞0 .

(5.217)

Die dominanten Pole können daher nicht vollständig kompensiert werden. Die Übertragungsfunktion des unvollständig kompensierten Systems ist 2 ∗ ∗ ˜ ges (s) = Gges (s) · s − (s∞0 + s∞0 ) s + s∞0 s∞0 . G s2 − (s∞ + s∗∞ ) s + s∞ s∗∞

(5.218)

˜ ges (s) ist die Impulsantwort des kompenDie inverse Laplace-Transformierte von G sierten Systems. Sie lässt sich nicht allgemein angeben. Wegen der unvollständigen

5.5

Strukturänderung zur Optimierung des Zeitverhaltens

225

˜ ges (s) wieder den Term Kompensation enthält das Nennerpolynom von G s2 − (s∞ + s∗∞ ) s + s∞ s∗∞ = s2 + 2δs + δ 2 + (2πf ) . 2

(5.219)

Dieser bewirkt einen zusätzlichen Einschwingvorgang in der Impulsantwort, der mit e−δt langsam abklingt. Beispiel 5.17 (Ideale Kompensation bei der Temperaturmessung): Ein Berührungsther-

mometer steckt in einer Flüssigkeit der Temperatur T . Seine Wärmekapazität sei C, der Wärmeübergang sei durch α gegeben (Abb. 5.21). Der Energieerhaltungssatz besagt, dass die auf das Thermometer übergehende Wärme gleich der Erhöhung der inneren Energie des Thermometers ist, Φ = α (T − Tm ) = C

dE dTm = , dt dT

(5.220)

oder in den Laplace-Bereich transformiert: Tm (s) =

1 α T (s) = T (s) . Cs + α Tu¨ s + 1

(5.221)

Im stationären Zustand ist wegen 1 =1 s→0 Tu ¨s+1

lim G(s) = lim

s→0

(5.222)

die Temperatur des Thermometers Tm gleich der Flüssigkeitstemperatur T : Tm = T

für

t → ∞.

(5.223)

Mit der Kompensationsübertragungsfunktion GK (s) =

Tu¨ s + 1 , TK s + 1

TK  Tu¨ ,

Abbildung 5.21. Temperaturmessung.

(5.224)

226

5. Dynamisches Verhalten von Messsystemen

erhält man eine ideal kompensierte Gesamtübertragungsfunktion Gges (s) = G(s) GK (s) =

1 TK s + 1

(5.225)

mit einer kleineren Zeitkonstante TK und damit eine Impulsantwort gges (t) =

1 −t/TK e TK

(5.226)

mit einem schnelleren Einschwingverhalten.

Beispiel 5.18 (Kompensation bei veränderlichen Parametern): Der Wärmeübergang α

aus Bsp. 5.17 ist nun aber nicht konstant, sondern hängt von der Oberfläche und Form des Thermometers, aber auch von Größen ab, die sich im Betrieb ändern, wie die Anströmgeschwindigkeit, die Dichte und Art des Messstoffes. Betrachtet man die Abhängigkeit von der Strömungsgeschwindigkeit v des Messstoffes, so erhält man nach einem empirischen Gesetz  m v α = , m ≈ 0,8 . (5.227) α0 v0 Für kleine Änderungen gilt die Näherung Δα Δv . ≈m α0 v

(5.228)

Die Strömungsgeschwindigkeit ändere sich im Betrieb um Δv/v = 0,5, wodurch Δα/α0 = 0,4 wird. Dadurch ändert sich die Systemzeitkonstante: Tu¨ =

1 C C C 1 = = · = Tu¨0 . Δα α α0 + Δα α0 1 + α 1 + Δα α0 0

(5.229)

Die unvollständig kompensierte Übertragungsfunktion ist ˜ ges (s) = G =

Tu¨0 s + 1 1 · TK s + 1 Tu¨ s + 1 (Tu¨0 − TK ) (1 + Tu¨0 − TK (1 + −

Tu¨0

Δα α0 ) Δα α0 )

Δα α0

Tu¨0 − TK (1 +

Δα α0 )

(5.230) ·

1 TK s + 1 ·'

@

Tu¨0

(1 +

1 Δα α0 )

(

(5.231) s+1

5.5

Strukturänderung zur Optimierung des Zeitverhaltens

227

1,2 1 0,8 0,6 0,4 0,2 0 0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

Abbildung 5.22. Sprungantwort eines Berührungsthermometers mit einem Kompensationsnetzwerk in Rei-

he.

und die zugehörige Impulsantwort   Δα 1 (Tu¨0 − TK ) (1 + α0 ) t g˜ges (t) = · exp − TK Tu¨0 − TK (1 + Δα TK α0 )   Δα (1 + Δα 1 + Δα α0 ) α0 α0 − . exp −t Tu¨0 Tu¨0 − TK (1 + Δα α )

(5.232)

0

Mit wachsender Parameterabweichung Δα wird der Einschwingvorgang durch die größere Zeitkonstante Tu¨ bestimmt. In Abb. 5.22 sind die verschiedenen Einschwingvorgänge dargestellt. Der Fehler wird im Wesentlichen durch den langsam abklingenden zweiten Term bestimmt.

5.5.2 Zeitverhalten bei Gegenkopplung Die Gegenkopplung soll auf die Möglichkeit zur Veränderung des Zeitverhaltens untersucht werden. Dazu wird das System mit der Übertragungsfunktion GR (s) = V · GK (s)

(5.233)

in Reihe zum Messsystem G(s) geschaltet. Der Systemausgang y(t) wird auf den Eingang zurückgekoppelt (Abb. 5.23). Diese Anordnung ist auch als Regelkreis bekannt. In der Regelungstechnik bezeichnet man daher das System GR (s) auch als Regler. Die Übertragungsfunktion des geschlossenen Kreises ist Gges (s) =

V GK (s) G(s) GR (s) G(s) = . 1 + GR (s) G(s) 1 + V GK (s) G(s)

(5.234)

228

5. Dynamisches Verhalten von Messsystemen

+ −

Abbildung 5.23. Strukturbild zur Gegenkopplung.

Erhöht man formal die Verstärkung V , so geht die Übertragungsfunktion Gges (s) unabhängig von G(s) und GK (s) in die ideale Übertragungsfunktion über: lim Gges (s) = Gideal (s) = 1 .

V →∞

(5.235)

Damit scheint eine hohe Regelkreisverstärkung V das geeignete Mittel zu sein, um das Zeitverhalten von Messsystemen zu verbessern. Leider wird für große Verstärkungen V der Regelkreis meist instabil, selbst wenn die einzelnen Teilsysteme stabil sind. Daher ist die Gegenkopplung nur bedingt geeignet, das dynamische Verhalten von Messsystemen zu verbessern.

5.5.2.1 P-Regler Um die Problematik zu verdeutlichen, wird im Folgenden ein P-Regler mit der konstanten Übertragungsfunktion (5.236)

GR (s) = V

betrachtet und gleichzeitig eine Übertragungsfunktion G(s) des Messsystems ohne Nullstellen angenommen: (−1) G(s) = / n

n

n /

s∞i

i=1

(5.237)

,

(s − s∞i )

i=1

wobei G(0) = 1 ist. Das Nennerpolynom von G(s) wird ausmultipliziert: N (s) = sn − sn−1

n 

s∞i + · · ·

i=1

+ (−1)

n−1

n .

n n  . 1 n s· s∞i + (−1) s∞i . s i=1 j=1 ∞j i=1

(5.238)

Die komplexen Pole sind jeweils paarweise konjugiert komplex zueinander: s∞i = −δi + j2πfi ,

s∗∞i = −δi − j2πfi .

(5.239)

5.5

Strukturänderung zur Optimierung des Zeitverhaltens

229

Die Summe und das Produkt zweier konjugiert komplexer Pole führen auf s∞ + s∗∞ = −δ + j2πf − δ − j2πf = −2δ = 2{s∞ }

(5.240)

bzw. s∞ s∗∞ = δ 2 + (2πf )2 = r2 ,

(5.241)

wobei r den Abstand der Pole vom Ursprung der komplexen Ebene bezeichnet. Damit lassen sich die Summen- und Produktterme des ausmultiplizierten Nennerpolynoms N (s) ausdrücken: n 

s∞i =

i=1 n .

n 

{s∞i } ,

(5.242)

ri .

(5.243)

i=1

s∞i =

i=1

n . i=1

Die Übertragungsfunktion des geschlossenen Kreises ist n

(−1) V · Gges (s) = / n

n /

s∞i

i=1 n

(s − s∞i ) + (−1) V ·

i=1

n /

(5.244)

. s∞i

i=1

Durch Ausmultiplizieren ergibt sich das Nennerpolynom des geschlossenen Kreises zu: Nges (s) = sn − sn−1

n 

sg∞i + · · ·

i=1

+ (−1)

n−1



n .

sg∞i

i=1

n 

1

j=1

sg∞j

+ (−1)

n

n .

sg∞i .

(5.245)

i=1

Durch Vergleich der beiden Nennerpolynome findet man die Beziehung zwischen der Lage der ursprünglichen Pole s∞i und derer im gegengekoppelten Kreis sg∞i . Koeffizientenvergleich für sn−1 : n  i=1

s∞i =

n 

sg∞i .

(5.246)

i=1

Mit (5.242) ergibt sich eine unveränderte Summe der Realteile aller Pole: n  i=1

{s∞i } =

n  i=1

{sg∞i } .

(5.247)

230

5. Dynamisches Verhalten von Messsystemen

Koeffizientenvergleich für s: n .

s∞i ·

i=1

n n n  .  1 1 = sg∞i · . s s ∞j g∞j j=1 i=1 j=1

(5.248)

Aus dem Produkt und der Summe der paarweise konjugiert komplexen Pole wird mit (5.240) 1 1 s∗ s∞ 2{s∞ } + ∗ = ∞ + 2 = , s∞ s∞ r2 r r2

(5.249)

so dass man schreiben kann: n . i=1

ri

n  {s∞j } j=1

rj2

=

n .

rgi

i=1

n  {sg∞j } j=1

2 rgj

.

(5.250)

Koeffizientenvergleich für s0 : n .

sg∞i = (V + 1)

i=1

n .

s∞i .

(5.251)

i=1

Mit (5.243) ergibt sich ein Zusammenhang zwischen den Abständen der Pole zum Ursprung: n . i=1

rgi = (V + 1)

n .

ri .

(5.252)

i=1

Führt man einen mittleren Realteil der Pole ein,   n {s∞ } 1  {s∞j } = , r2 n j=1 rj2

(5.253)

so lassen sich die Pole mit und ohne Gegenkopplung vergleichen. Mit (5.250) und (5.252) erhält man     {sg∞ } {s∞ } 1 = . (5.254) rg2 V +1 r2 Aufgrund von (5.247) kann man grob abschätzen, dass sich die Realteile der Pole im 2 Mittel wenig verändern. Die Abstände rgj der Pole vom Ursprung vergrößern sich dagegen mit wachsender Verstärkung V . Daraus kann man schließen, dass im Wesentlichen die Imaginärteile mit der Verstärkung anwachsen, was im Mittel zu wenig gedämpften Eigenschwingungen führt. Der mittlere Realteil wird im Fall der Gegenkopplung evtl. dadurch erhalten bleiben, dass einige Pole sogar auf die rechte Halbebene rücken. Damit wird das System instabil.

5.5

Strukturänderung zur Optimierung des Zeitverhaltens

231

Beispiel 5.19 (Zweistufiger Verstärker): Ein zweistufiger Verstärker mit der Übertra-

gungsfunktion G(s) =

V α2 (s + α)

2

,

α ∈ IR ,

(5.255)

hat die Sprungantwort H(s) =

G(s) V Vα V = − − 2 s s (s + α) s+α

(5.256)

• ◦ h(t) = V (1 − e−αt (α t + 1)) ,

(5.257)

die für α > 0 aperiodisches Einschwingverhalten aufweist. Schließt man nun die Gegenkopplungsschleife, so ist die Übertragungsfunktion des geschlossenen Kreises: Gges (s) =

V α2 . (s + α)2 + V α2

(5.258)

Die Laplace-Transformierte der Sprungantwort des geschlossenen Kreises ist damit V α2 Gges (s) = s s ((s + α)2 + V α2 )   √ Vα V s+α 1 1 = − −√ · . 1 + V s (s + α)2 + V α2 V (s + α)2 + V α2

Hges (s) =

Daraus berechnet sich die Sprungantwort im Zeitbereich zu  ' ( √ √ V 1 1 − e−αt cos V α t + √ · sin V α t . hges (t) = 1+V V

(5.259) (5.260)

(5.261)

Der stationäre Endwert der Sprungantwort ist lim hges (t) =

t→∞

V < 1. 1+V

(5.262)

Stationäre Genauigkeit wird nur für V → ∞ erreicht. Setzt man im Fall der Gegenkopplung V = 100, so wird aus einer aperiodischen Einstellung bei etwa gleichen Dämpfungseigenschaften α in der Gegenkopplungsschaltung eine schwingende Einstellung. Abbildung 5.24 zeigt die auf den Endwert h∞ normierten Sprungantworten h(t) und hges (t) für die Parametereinstellungen V = 100 und α = 10.

232

5. Dynamisches Verhalten von Messsystemen 2

1,5

1

0,5

0 0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

Abbildung 5.24. Sprungantwort eines zweistufigen Verstärkers mit und ohne Gegenkopplung.

5.5.2.2 PI-Regler Die Berechnungen und das Beispiel haben gezeigt, dass allein die Erhöhung der Verstärkung im geschlossenen Regelkreis kein geeignetes Mittel ist, das dynamische Verhalten von Messsystemen zu verbessern. Kombiniert man allerdings die Rückkopplung mit dem Kompensationsverfahren nach Abschnitt 5.5.1 zur Kompensation der größten Zeitkonstante in der Übertragungsfunktion G(s) des Messsystems, so gelangt man zum PI-Regler: GR (s) = V

1 + TK s . s

(5.263)

Mit den Grenzwertsätzen der Laplace-Transformation folgt für die Sprungantwort: 1 + TK s 1 · = ∞, t→∞ s→0 s s 1 + TK s 1 · = V TK . h(0) = lim h(t) = lim s · V s→∞ t→0 s s

h∞ = lim h(t) = lim s · V

(5.264) (5.265)

Damit ist die stationäre Verstärkung unendlich groß, während die Verstärkung für hohe Frequenzen begrenzt ist. Damit treten weniger Stabilitätsprobleme auf als bei konstanter Verstärkung im P-Regler. Zusätzlich ist der Regelkreis stationär genau. Es sind aber auch andere Übertragungsfunktionen für den Regler GR (s) denkbar. Die Untersuchung und Dimensionierung dieser Systeme ist allerdings Aufgabe der Regelungstechnik. Für eine genauere Beschreibung sei daher auf die Literatur [2, 4, 12] verwiesen. Hier sollen lediglich an einem Beispiel die Vorteile eines PI-Reglers gegenüber dem P-Regler demonstriert werden.

5.5

Strukturänderung zur Optimierung des Zeitverhaltens

233

Beispiel 5.20 (Gegenkopplung mit P- und PI-Regler): Gegeben sei ein Messsystem, das

durch drei in Reihe geschaltete PT1 -Glieder G(s) =

1 1 1 1 + T1 s 1 + T2 s 1 + T3 s

(5.266)

mit den Zeitkonstanten T1 = 0,53 s, T2 = 0,055 s und T3 = 0,005 s charakterisiert ist. P-Regler: Setzt man einen P-Regler mit

(5.267)

GR (s) = V an, so erhält man die Übertragungsfunktion des geschlossenen Kreises Gges,P (s) =

V . V + (1 + T1 s)(1 + T2 s)(1 + T3 s)

(5.268)

Für die geforderte Stabilität müssen die Pole von Gges,P (s) in der linken s-Halbebene liegen. Dazu wird der Nenner ausmultipliziert, zu null gesetzt und man gelangt auf diese Weise zur charakteristischen Gleichung: T1 T2 T3 s3 + (T1 T2 +T1 T3 +T2 T3 )s2 + (T1 +T2 +T3 )s + V + 1 = 0 .

(5.269)

Zur Prüfung auf Stabilität bietet sich das Hurwitz-Kriterium (Satz 5.2) an. Für eine allgemeine Gleichung 3. Grades a0 s3 + a1 s2 + a2 s + a3 = 0 ergibt sich die Hurwitz-Determinante zu   a a 0    1 3    a 0 a2 0  .    0 a 1 a3 

(5.270)

(5.271)

Das System ist stabil, wenn alle nordwestlichen Unterdeterminanten positiv sind: !

H1 = a1 > 0 ,   a a  !  1 3 H2 =   = a1 a 2 − a 0 a 3 = 0 ,  a0 a2  !

H 3 = a3 H 2 > 0 .

(5.272) (5.273) (5.274)

Da alle Zeitkonstanten positiv sind, gilt dies auch für a1 und a3 . Prüft man die Bedingung H2 > 0, so führt dies nach einigen Umformungen auf die Stabilitätsbe-

234

5. Dynamisches Verhalten von Messsystemen

dingung



V < (T1 + T2 + T3 )

1 1 1 + + T1 T2 T3

 − 1.

(5.275)

Setzt man die Zahlenwerte ein, so ist der geschlossene Kreis stabil für (5.276)

V < 128,9 .

Für die praktische Anwendung wird man V um einiges kleiner wählen, will man starke Einschwingvorgänge vermeiden. Dies stellt einen Kompromiss mit der stationären Genauigkeit dar, die nur für große V erreicht werden kann. PI-Regler: Setzt man einen PI-Regler ein, so kann die größte Zeitkonstante des Messsystems T1 = 0,53 s kompensiert werden. Die Übertragungsfunktion des PIReglers lautet dann

GR (s) = V

1 + T1 s . s

(5.277)

Damit wird die Übertragungsfunktion des geschlossenen Kreises zu Gges,PI (s) =

V . V + s (1 + T2 s)(1 + T3 s)

(5.278)

Die Stabilitätsuntersuchung erfolgt ebenfalls mit den Hurwitz-Kriterium. Man erhält als Stabilitätsbedingung V
1 &

&

&

>1

Abbildung 8.24. Digitaler Phasenvergleicher, Vergleichssignale bei konstanter Phasendifferenz.

8.3

Kontinuierliche Frequenzmessung

407

differenzsignal Δϕ(t) wird durch Differenz der beiden Ausgangssignale uup (t) und udown (t) gebildet: Δϕ(t) = uup (t) − udown (t) .

(8.134)

Bei einem Betrag der Phasendifferenz zwischen Eingangssignal f (t) und Vergleichssignal q(t) von mehr als π entstehen Mehrdeutigkeiten. In diesem Fall wird um eine oder evtl. mehrere ganze Perioden versetzt eingeregelt.

Abbildung 8.25. Phasenvergleichssignal bei konstanter Frequenzdifferenz.

Bei einer konstanten Differenz der Frequenz der Signale f (t) und q(t) steigt das mittlere Phasendifferenzsignal Δϕ(t) mit der Zeit an (Abb. 8.25). Im kontinuierlichen Fall gilt für die Phasendifferenz nach (8.1) "t Δϕ(t) =

Δω(t) dt

L

◦−•

ΔΦ(s) =

1 ΔΩ(s) . s

(8.135)

0

Mit der Normierung auf die Maximalwerte ωmax 1 = fmax = ϕmax Tmin

(8.136)

erhält man aus (8.135) die Beziehung 1 ΔΩ(s) 1 ΔF (s) ΔΦ(s) = = . ϕmax s Tmin ωmax s Tmin fmax

(8.137)

Der Phasenvergleicher ist ein Integrator mit der Zeitkonstante Tmin = 1/fmax . Der Ausgang Δϕ(t) des Phasenvergleichers ist zwar ein pulsweitenmoduliertes Signal, aber wegen der nachfolgenden Mittelung wird mit einem kontinuierlichen Vergleichssignal gerechnet. Das PI-Glied stabilisiert den Phasenregelkreis. Mit der Übertragungsfunktion des PI-Gliedes erhält man: U (s) 1 + sT1 ΔΦ(s) 1 + sT1 ΔF (s) 1 + sT1 Ff (s) − Fq (s) = = 2 = 2 , umax sT2 ϕmax s T2 Tmin fmax s T2 Tmin fmax

(8.138)

408

8. Frequenz- und Drehzahlmessung

wobei Ff (s) und Fq (s) die Laplace-Transformierten der Frequenzen der Signale f (t) bzw. q(t) bezeichnen. Das Verhalten des spannungsgesteuerten Oszillators (VCO) kann als verzögerungsfrei angenommen werden: fq (t) u(t) = fmax umax

mit

fq (t) = L−1 {Fq (s)} .

(8.139)

Die Übertragungsfunktion des geschlossenen Phasenregelkreises ist damit umax 1 + s T1 U (s) = . · Ff (s) fmax 1 + s T1 + s2 Tmin T2

(8.140)

Der Nenner der Übertragungsfunktion besitzt PT2 -Verhalten. Das System ist schwingungsfähig; Frequenzschwankungen oberhalb der Kennkreisfrequenz ω0 = √

1 Tmin T2

(8.141)

werden stark gedämpft. Abbildung 8.26 zeigt die Sprungantwort und den Amplitudengang des Phasenregelkreises für zwei verschiedene Reglereinstellungen. Zur geeigneten Parametrierung des Reglers wird die Dämpfung δ des PT2 -Gliedes eingeführt: δ=

1 T 1 √ 1 = T1 ω 0 . 2 Tmin T2 2

(8.142)

√ Nach Beispiel 5.8 erhält man mit δ = 1/ 2 ein günstiges Einschwingverhalten, woraus sich die Bedingung T12 = 2 Tmin T2

(8.143)

ergibt (dunkle Linie in Abb. 8.26). Als Beispiel für eine Dimensionierung des Regelkreises wird die Integrationszeitkonstante T2 gleich der Periode der minimalen Eingangsfrequenz fmin gesetzt: fmin = 1/T2 . Die Kennkreisfrequenz (8.141) des Phasenregelkreises wird dann mit (8.136) gleich dem geometrischen Mittel  (8.144) ω0 = fmin · fmax aus maximaler und minimaler Eingangsfrequenz. Die Schwingfrequenz des Einschwingvorgangs ist mit dieser Dimensionierung √ fmin · fmax ω0 1 √ =√ = (8.145) T1 2 2 und die Abklingzeitkonstante TA des Einschwingvorgangs ist gerade gleich der Zeitkonstanten T1 : TA =

1 = T1 . ω0 δ

(8.146)

8.3

Kontinuierliche Frequenzmessung

409

1,5

1

0,5

0

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

5 0 −5 −10 −15 −20 −25 0 10

1

2

10

10

3

10

Abbildung 8.26. Sprungantwort h(t) und Amplitudengang |G(f )| eines Phasenregelkeises für fmax = √ √ 100 Hz, fmin = 1/T2 = 1 Hz und T1 = 1/ 2 s ( ) bzw. T1 = 1/(2 · 2) s ( ).

8.3.2 Frequenzregelkreis Bei der Frequenzmessung nach Abschnitt 8.2.2 wurde die Frequenz als Folge von Impulsereignissen abschnittsweise über ein festes Zeitintervall Tref gemittelt. Alternativ dazu ist eine quasikontinuierliche Frequenzmessung durch Umsetzung in einen Zählerstand z[n] möglich. Verwendet man einen Vorwärts-Rückwärts-Zähler als Integrator und den in Abschnitt 7.4.2 vorgestellten Rate-Multiplier als Frequenzgenerator, so erhält man mit dem Frequenzvergleicher Δf [n] = f [n] − q[n]

(8.147)

der binären Impulsfolgen f [n] und q[n] einen digitalen Regelkreis (Abb. 8.27). Der Zählerstand des Vorwärts-Rückwärts-Zählers z[n] = tA

n 

Δf [j] =

j=−∞

1

n 

fmax

j=−∞

(f [j] − q[j])

(8.148)

summiert mit der Abtastrate fmax = 1/tA die Differenz zwischen Eingangsfrequenz f [n] und zurückgeführter Frequenz q[n]. Letztere leitet sich wie folgt vom Zählerstand ab: q[n] = fmax

z[n] . zmax

(8.149)

410

8. Frequenz- und Drehzahlmessung

Abbildung 8.27. Quasikontinuierliche Mittelung der Eingangsfrequenz.

Durch Einsetzen von (8.149) in (8.148) und z-Transformation resultiert der Zählerstand im Frequenzbereich: 1 1 1 1 F (z) − Z(z) . fmax 1 − z −1 zmax 1 − z −1

Z(z) =

(8.150)

Damit erhält man schließlich die Übertragungsfunktion des Regelkreises G(z) =

1/fmax 1/fmax Z(z) = = F (z) 1 − z −1 + 1/zmax k − z −1

(8.151)

1 . zmax

(8.152)

mit k =1+

Mit der Sprungfolge f [n] = fmax · σ[n]

◦−•

F (z) = Z{f [n]} = fmax

z z−1

ergibt sich die Sprungantwort des Systems im z-Bereich zu ' ( z z z z · = . Z(z) = z − 1 kz − 1 k (z − 1)(z − 1/k)

(8.153)

(8.154)

Zur Rücktransformation benötigt man die Partialbruchzerlegung des Klammerausdrucks. Damit erhält man Z(z) =

z 1 z 1 − k − 1 z − 1 k(k − 1) z − 1/k

 

(8.155)

= zmax

• ◦   z[n] = zmax 1 − k −(n+1) σ[n] ,

(8.156)

8.4

Positions- und Richtungserkennung

411

d. h. der Zählerstand z[n] schwingt exponentiell gegen den Maximalwert ein. Mit der Umformung k −(n+1) = e−(n+1) ln k ,

(8.157)

der Näherung ln k = ln(1 + 1/zmax ) ≈ 1/zmax

(8.158)

und dem Übergang auf die kontinuierliche Zeit t = n tA kann man den kontinuierlichen Verlauf der Sprungantwort rekonstruieren:   mit T = zmax tA . (8.159) z(t) ≈ zmax 1 − e−(t+tA )/T σ(t) Der Frequenzregelkreis besitzt also PT1 -Verhalten und damit Tiefpasscharakter. Frequenzschwankungen oberhalb der Eckfrequenz ωe = 1/T werden gedämpft.

8.4 Positions- und Richtungserkennung 8.4.1 Drehrichtungserkennung In den Abschnitten 8.2.1 und 8.2.2 wurden zwei Methoden vorgestellt, die es ermöglichen, die Winkelgeschwindigkeit ω einer Welle mittels eines Sensorrades zu bestimmen. Zusätzlich soll nun die Drehrichtung der Welle bestimmt werden. Zur Erkennung der Drehrichtung wird der Aufbau in Abb. 8.28 eingesetzt.

Abbildung 8.28. Einrichtung zur Drehrichtungserkennung.

412

8. Frequenz- und Drehzahlmessung

Die beiden Sensoren S1 und S2 sind dabei so ausgerichtet, dass sie nicht gleichzeitig genau über beiden Sensorzähnen stehen, sondern der eine leicht versetzt dazu. Der Winkel zwischen zwei Zähnen ist durch ϕ0 =

2π Z

(8.160)

gegeben, wobei Z die Anzahl der Zähne bezeichnet. Durch ψ wird der Winkel definiert, den das Rad während der Dauer eines Impulses im Sensor zurücklegt (Zahnbreite). Für den Winkelabstand zwischen den Sensoren S1 und S2 gilt: ϑ = k · ϕ0 ± Δϕ

mit

0 < Δϕ
1 & Abbildung 8.31. Gatter zur Erkennung der Drehrichtung.

Drehrichtungsänderungen während eines Impulses werden von dieser Schaltung jedoch nicht erkannt. Hierzu benötigt man ein komplizierteres Netzwerk. Das Prinzip

8.4

Positions- und Richtungserkennung

413

der Drehrichtungserkennung wird beispielsweise bei mechanischen Computermäusen und Trackballs benutzt, um die Bewegungsrichtung zu bestimmen.

8.4.2 Positionsbestimmung In den vorherigen Abschnitten wurde durch eine äquidistante Anbringung von Zähnen an einer Welle die Drehbewegung als frequenzanaloges Signal erfasst und daraus sowohl die Winkelgeschwindigkeit als auch die Drehrichtung abgeleitet. Analog lassen sich durch Einteilung eines linearen Maßstabs durch gleich große Gitterelemente mit abwechselnden physikalischen Eigenschaften Wege und Geschwindigkeiten messen (Abb. 8.32). Beispielsweise kommen lineare Inkrementalgeber bei Tintenstrahldruckern zum Einsatz, um die Position des Druckwagens zu bestimmen, sowie bei Werkzeugmaschinen oder bei bildgebenden Messsystemen in der Medizin.

Abbildung 8.32. Inkrementalgeber mit der Gitterkonstanten x0 .

Allerdings erlauben Inkrementalgeber lediglich die Angabe von Positionsänderungen und sind somit nicht geeignet, die absolute Position zu liefern. Letztere Eigenschaft ist z. B. bei der Bestimmung des Öffnungswinkels der Drosselklappe in einem Automotor oder bei Positioniersystemen im Falle von Betriebsunterbrechungen durch Stromausfall wichtig. Zur absoluten Codierung der Position werden mehrspurige Codelineale verwendet, die parallel abgetastet werden müssen, wobei die Gesamtheit der binären Abtastwerte ein Codewort ergibt (Abb. 8.33). Entsprechend den vielen parallelen Spuren und Sensoren ist der Aufwand deutlich höher als bei Inkrementalgebern. So benötigt man bei einer Auflösung von 256 Schritten 8 Spuren und ebenfalls 8 Sensoren. Zur Codierung der Position bieten sich mehrere Möglichkeiten an: Dualcode: Der Dualcode ist vor allem aus dem Einsatz in Rechnersystemen bekannt. Dabei weist das i-te Bit die feste Stellenwertigkeit 2i auf. Zur Codierung von Weg- und Winkelgebern ist der Dualcode jedoch ungeeignet, da bei fehlerhafter Justierung des Abtastlineals an den Übergangsstellen große Fehler auftreten können (siehe Abb. 8.33 links, Fall B). Durch Hinzufügen einer Prüfspur lassen sich Abtastfehler erkennen. Das Prüf- oder Paritätsbit ist genau dann eins, wenn die Quersumme der tatsächlichen Spuren ungerade ist, sonst ist es null. Durch Vergleich von Quersumme und Paritätsbit kann somit jede ungerade Fehlerzahl erkannt werden [1]. Gray-Code: Der Gray-Code ist ein einschrittiger binärer Code, d. h. aufeinander folgende Gray-Zahlen unterscheiden sich jeweils nur in einem Bit (Abb. 8.33

414

8. Frequenz- und Drehzahlmessung 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

0 1 2 3

0 1 2 3

Abbildung 8.33. Links: vierspuriges, dualcodiertes Codelineal mit Prüfspur (A und B: korrekt bzw. fehler-

haft justiertes Abtastlineal); rechts: vierspuriges Codelineal mit Gray-Codierung.

Abbildung 8.34. Absolutwinkelgeber mit Gray-Codierung.

rechts). Anders als der Dualcode weist der Gray-Code keine feste Stellenwertigkeit auf. In den Übergängen von einer Stufe zur nächsten ergeben sich wenige Fehlermöglichkeiten, da sich nur ein Bit ändert. Daher wird dieser Code bevorzugt bei weg- und winkelgebenden Messungen eingesetzt. Zur Messung der absoluten Winkelposition können ebenfalls Absolutwinkelgeber mit Gray-Codierung eingesetzt werden (Abb. 8.34). Aufgrund des hohen Realisierungsaufwands werden jedoch Methoden bevorzugt, bei denen bereits aus wenigen Spuren die absolute Position bestimmt werden kann. Der einfachste Fall basiert darauf, auf der Codescheibe neben der Inkrementspur eine weitere Spur mit einer Indexmarke aufzubringen. Die Indexmarke definiert dabei die Nullposition der Scheibe. Diese Methode hat allerdings den entscheidenden Nachteil, dass sich die Welle im ungünstigsten Fall (z. B. bei Verzählen) um 360◦ drehen muss, bis der Detektor die Indexmarke erfasst und damit die Nullposition feststellt. Erst ab diesem Zeitpunkt kann die absolute Position nach einem Fehler erneut bestimmt werden. Die Nachteile der Scheibe mit einer einfachen Indexmarke können mit einer abstandscodierten Scheibe behoben werden. Dazu befinden sich weitere Indexmarken auf der zweiten Spur der Scheibe. Diese Markierungen unterteilen die Codespur in

8.5

Literatur

415

einzelne Segmente. Die Indexmarken werden so angeordnet, dass sich aus dem Abstand dazwischen die Segmentnummer und damit die absolute Position errechnen lässt. Die Marken 1 und 2 sind d Inkremente voneinander entfernt, die Marken 2 und 3 (d + 1) Inkremente, die Marken 3 und 4 (d + 2) Inkremente und so weiter. Die Abstände zwischen den Indexmarken sind damit jeweils eindeutig einer bestimmten Position zugeordnet. Als Beispiel zeigt Abb. 8.35 den Aufbau einer abstandscodierten Scheibe mit d = 4 und insgesamt 72 Inkrementmarken. Spätestens nach Überfahren zweier Indexmarken kann die absolute Position erkannt werden.

4

12

Inkrementspur

5 6

11

Indexspur 7 10

8 9

Abbildung 8.35. Beispiel einer abstandscodierten Scheibe.

8.5 Literatur [1] M. Bossert. Kanalcodierung. Oldenbourg, München, 3. Auflage, 2013. [2] U. Kiencke und L. Nielsen. Automotive control systems. Springer, Berlin, Heidelberg, New York, 2. Auflage, 2005. [3] P. V. Novickij, V. G. Knorring und V. S. Gutnikov. Frequenzanaloge Meßeinrichtungen. VEB Verlag Technik, Berlin, 1975. [4] A. Papoulis. Systems and transformations with applications in optics. Krieger Publishing, Malabar, Florida, 1981. [5] F. Puente León und H. Jäkel. Signale und Systeme. De Gruyter Oldenbourg, Berlin, 7. Auflage, 2019. [6] F. Puente León und U. Kiencke. Ereignisdiskrete Systeme: Modellierung und Steuerung verteilter Systeme. Oldenbourg, München, 3. Auflage, 2013.

Kapitel 9 Parameterschätzung

9

9

¨ Parameterschatzung

9.1 Lineares Signalmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420

9

¨ 9.2 Least-Squares-Schatzer . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 ¨ 9.2.1 Parameterschatzung fur ¨ ein lineares Signalmodell . . . . . . . . 424 9.2.2 Filterbank-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . 430 ¨ 9.3 Gauß-Markov-Schatzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 ¨ 9.4 Rekursiver Least-Squares-Schatzer . . . . . . . . . . . . . . . . . . . . . 440 ¨ 9.4.1 Ableitung aus dem Least-Squares-Schatzer . . . . . . . . . . . . 441 ¨ 9.4.2 Rekursiver Least-Squares-Schatzer fur ¨ zeitvariante Signale . . . 447 ¨ 9.5 Bayes-Schatzung . . . . . . . . . . . . . 9.5.1 Wahrscheinlichkeit . . . . . . . . ¨ 9.5.2 Bayes’sche Parameterschatzung ¨ 9.5.3 Maximum-Likelihood-Schatzer . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

448 448 450 453

9.6 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459

9 Parameterschätzung Ziel des Messens ist es, den wahren Wert einer Messgröße u auf der Grundlage beobachtbarer Messwerte oder -signale möglichst genau in Erfahrung zu bringen, was meist durch die Anwendung statistischer Schätzmethoden erfolgt [3]. Entsprechend Abschnitt 1.3.4 sind Messsignale Träger von Informationen, die im Folgenden als Signalparameter bezeichnet werden – Beispiele von Signalparametern sind die Amplitude, die Frequenz, die Phase oder die Drift. Zur robusten Extraktion der für eine Messaufgabe relevanten Signalparameter aus einem Messsignal werden diese als Parameter eines Signalmodells (Abschnitt 9.1) aufgefasst. Hierbei unterstellt man einen kausalen Zusammenhang, bei welchem die Parameter a ∈ A der Ursache und die Messungen y ∈ Y der Wirkung entsprechen (vgl. Abb. 9.1). Da die Parameter a empirisch nicht direkt zugänglich sind, muss man sich in der Praxis damit begnügen, ˆ (y) basierend auf den Messwerten y zu gewinnen, wofür Parameeine Schätzung a terschätzverfahren benötigt werden. Aufgrund von Störungen und systematischen Einflüssen ist jedoch dieser Rückschluss nicht eindeutig möglich.

ˆ (y) (nach [1]). Abbildung 9.1. Parametervektor a, Messung y und Schätzung a

Exemplarisch wurde bereits in Abschnitt 4.5.3 am Beispiel der Überwachung eines Generators (S. 173ff) demonstriert, wie sich aus einem Messsignal mit Hilfe des LeastSquares-Schätzers die Amplitude der Generatorfrequenz oder Kenngrößen über Drifterscheinungen gewinnen lassen. Voraussetzung dafür war auch dort die Vorgabe eines geeigneten Signalmodells (vgl. Abschnitt 2.1.2). In diesem Kapitel werden die wichtigsten Parameterschätzverfahren vorgestellt. Am häufigsten wird in der Messtechnik der Least-Squares-Schätzer (Abschnitt 9.2) verwendet, von dem bei besserer Kenntnis der Statistik von Messfehlern und Signalparametern die allgemeineren Varianten Gauß-Markov-Schätzer und Minimum-Varianz-Schätzer existieren (Abschnitt 9.3). In der Praxis besonders wichtig ist der rekursive Least-Squares-Schätzer (Abschnitt 9.4). Zum Abschluss wird die allgemeinere

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5_9

420

9. Parameterschätzung

Bayes-Schätzung dargestellt, bei der beliebige Verteilungen für Parameter und Messfehler verwendet werden können und nicht nur Normalverteilungen (Abschnitt 9.5).

9.1 Lineares Signalmodell Zur Modellierung des Verlaufs von Messsignalen y(t) wird zweckmäßigerweise eine Linearkombination von Basisfunktionen ϕk (t) herangezogen: y(t) =

K−1 

ak ϕk (t) + e(t) ,

(9.1)

k=0

wobei mit dem Modellfehler e(t) Abweichungen zwischen dem Signalmodell und dem Messsignal y(t) pauschal berücksichtigt werden. Verändert sich das Signal y(t) bei wiederholter Betrachtung nicht, so bleiben die Modellparameter ak konstant; anderenfalls ändern sie sich mit der Zeit t. Wenn kein weiteres Vorwissen über den Fehler e(t) vorliegt, wird dieser meist als weißes Rauschen (Abschnitt 6.4.2) angenommen: (9.2)

E{e(t)} = 0 , ree (τ ) =

σe2

(9.3)

δ(τ ) .

Stehen N Messwerte zur Verfügung, so lassen sich aus (9.1) N Gleichungen für das Messsignal für unterschiedliche Abtastzeitpunkte aufstellen: y(t) = a0 · ϕ0 (t) + · · · + aK−1 · ϕK−1 (t) + e(t) , y(t−tA ) = a0 · ϕ0 (t−tA ) + · · · + aK−1 · ϕK−1 (t−tA ) + e(t−tA ) , .. .

(9.4) (9.5)

y(t−(N −1)tA ) = a0 · ϕ0 (t−(N −1) tA ) + · · · + aK−1 · ϕK−1 (t−(N −1) tA ) + e(t−(N −1) tA ) ,

(9.6)

wobei tA die Abtastzeit bezeichnet. Mit dem Messvektor BT A y(t) = y(t) y(t − tA ) · · · y(t − (N −1) tA ) ,

(9.7)

dem Fehlervektor A BT e(t) = e(t) e(t − tA ) · · · e(t − (N −1) tA ) ,

(9.8)

dem Parametervektor A BT a = a0 a1 · · · aK−1

(9.9)

9.1

Lineares Signalmodell

und der Beobachtungsmatrix ⎤ ⎡ ··· ϕK−1 (t) ϕ0 (t) ⎥ ⎢ ϕ0 (t − tA ) ··· ϕK−1 (t − tA ) ⎥ ⎢ ⎥ Φ(t) = ⎢ .. .. .. ⎥ ⎢ . . . ⎦ ⎣ ϕ0 (t − (N −1) tA ) ϕK−1 (t − (N −1) tA )

421

(9.10)

erhält man das Signalmodell in Vektorschreibweise y(t) = Φ(t) · a + e(t) . Die Regressionsvektoren B A ϕT (t − mtA ) = ϕ0 (t − mtA ) · · · ϕK−1 (t − mtA )

(9.11)

(9.12)

sind die Zeilenvektoren der Beobachtungsmatrix Φ(t). Sie enthalten die Basisfunktionen ϕ0 bis ϕK−1 zum gleichen Zeitpunkt (t − mtA ), d. h. diese sind einer Messung y(t − mtA ) bzw. einem Versuch zugeordnet. Die Basisvektoren BT A ϕk (t) = ϕk (t) ϕk (t − tA ) · · · ϕk (t − (N −1) tA ) (9.13) sind die Spaltenvektoren der Beobachtungsmatrix Φ(t). Sie enthalten die gleiche Basisfunktion ϕk zu allen Messzeitpunkten t bis (t − (N −1) tA ), d. h. diese sind einem Parameter ak zugeordnet. Die Beobachtungsmatrix setzt sich zusammen aus Regressionsvektoren oder Basisvektoren: ⎤ ⎡ ϕT (t) ⎥ A ⎢ B ϕT (t − tA ) ⎥ ⎢ ⎥ = Φ(t) = ⎢ . (9.14) ϕ (t) ϕ (t) . . . ϕ (t) .. 0 1 K−1 ⎥ ⎢ . ⎦ ⎣ ϕT (t − (N −1) tA )

Die Messwerte im Beobachtungszeitraum werden als Potenzen der Zeit angenommen:

Beispiel 9.1 (Lineares Signalmodell):

y(t) = a0 + a1 · t + a2 · t2 + e(t) .

(9.15)

Die Basisfunktionen sind die Potenzen der Zeit ϕk (t) = tk .

(9.16)

Dann beschreiben der Parameter a0 den stationären Anteil und die Parameter a1 und a2 die lineare bzw. quadratische zeitliche Änderung des Signals.

422

9. Parameterschätzung

Als Nächstes wird die Zeit t = ntA diskretisiert. Bei Darstellung der Signale als Vektoren der Abtastwerte1 erhält man den Messvektor A BT y[n] = y[n] y[n−1] · · · y[n−N +1] (9.17) und den Fehlervektor A BT e[n] = e[n] e[n−1] · · · e[n−N +1] .

(9.18)

Die Autokorrelationsmatrix ist der Erwartungswert des dyadischen Produkts: 1 2 (9.19) Ree = E e[n] eT [n] ⎧⎡ ⎤⎫ ⎪ ⎪ e[n] e[n] e[n] e[n−1] · · · e[n] e[n−N +1] ⎪ ⎪ ⎪ ⎥⎪ ⎪ ⎪ ⎨⎢ ⎢ e[n−1] e[n] e[n−1] e[n−1] · · · e[n−1] e[n−N +1] ⎥⎬ ⎥ ⎢ =E ⎢ .. .. .. ⎥⎪ . (9.20) ⎪ . ⎪ . . ⎦⎪ ⎪ ⎪⎣ ⎪ ⎪ ⎩ e[n−N +1] e[n] ··· · · · e[n−N +1] e[n−N +1] ⎭ Bei Unkorreliertheit einzelner Fehler zu unterschiedlichen Zeiten E{e[n − i] e[n − j]} = σe2 · δij folgt für die Autokorrelationsmatrix: 1 2 Ree = E e[n] eT [n] = σe2 · I ,

(9.21)

(9.22)

wobei I die Einheitsmatrix bezeichnet. Für mittelwertfreie Fehler, E{e[n]} = 0, ist die Autokorrelationsmatrix Ree gleich der Autokovarianzmatrix Cee : Ree = Cee = σe2 · I . Ferner resultiert durch Zeitdiskretisierung die Beobachtungsmatrix ⎤ ⎡ ϕ0 [n] ··· ϕK−1 [n] ⎥ ⎢ .. .. .. Φ[n] = ⎣ ⎦, . . . ϕ0 [n−N +1] · · · ϕK−1 [n−N +1] der Regressionsvektor zum Zeitpunkt n − m B A ϕT [n − m] = ϕ0 [n − m] · · · ϕK−1 [n − m] 1

(9.23)

(9.24)

(9.25)

Um die Lesbarkeit zu erhöhen, wird in diesem Kapitel der zeitdiskrete Index von Signalen, Vektoren und Matrizen ohne Tiefstellung in eckigen Klammern geschrieben.

9.1

Lineares Signalmodell

423

und der Basisvektor zum Parameter ak BT A ϕk [n] = ϕk [n] · · · ϕk [n − N + 1] .

(9.26)

Das zeitdiskretisierte Signalmodell ist damit y[n] = Φ[n] a + e[n] =

K−1 

(9.27)

ak ϕk [n] + e[n] .

(9.28)

k=0

Für eine konkrete Messung y[n] sollen die Parameter zum Zeitpunkt n mit dem bislang noch nicht bekannten linearen Schätzfilter G[n] bestimmt werden: ⎡ T ⎤ g0 ⎢ .. ⎥ ˆ [n] = G[n] · y[n] = ⎣ . ⎦ y[n] . (9.29) a T gK−1

Jeder einzelne Parameter a ˆk [n] lässt sich dann als Faltung der Impulsantwort gkT eines linearen Filters mit dem Messvektor y[n] darstellen: a ˆk [n] = gkT y[n] =

N −1 

gk [m] y[n − m] = gk [n] ∗ y[n] .

(9.30)

m=0

Beispiel 9.2 (Erwartungstreuer Schätzer bei linearem Signalmodell): Der Parameter-

ˆ [n] wird entsprechend (9.29) mit dem Schätzfilter G[n] berechnet. Davektor a bei sind die Zeilenvektoren der Matrix G[n] gerade die Impulsantworten gkT des Schätzfilters zur Schätzung der Parameter ak : ˆ [n] = G[n] y[n] . a

(9.31)

Einsetzen des Signalmodells aus (9.27) in die Schätzgleichung ergibt ˆ [n] = G[n] Φ[n] a + G[n] e[n] , a

(9.32)

und nach Erwartungswertbildung E{ˆ a[n]} = G[n] Φ[n] a + G[n] E{e[n]} .

(9.33)

1 2 ˆ [n] = a erfüllt ist, muss Damit die Bedingung für Erwartungstreue E a !

G[n] Φ[n] = I

und

!

E{e[n]} = 0

(9.34)

424

9. Parameterschätzung

˜=a ˆ [n] − a ist gelten. Die Kovarianzmatrix des Schätzfehlers a 1 2 a[n] − a)(ˆ a[n] − a)T Ca˜a˜ [n] = E (ˆ 1 2 = E (G[n] Φ[n] a + G[n] e[n] − a)(G[n] Φ[n] a + G[n] e[n] − a)T .

(9.35) (9.36)

Bei Mittelwertfreiheit und stochastischer Unabhängigkeit des Fehlers e[n] von den anderen Variablen fallen die Kreuzterme weg und man erhält Ca˜a˜ [n] = (G[n] Φ[n] − I) · E{a aT } · (G[n] Φ[n] − I)

  = Raa 2 1 T + G[n] E e[n] e [n] GT [n]

 

T

(9.37) (9.38)

= Cee

T

= (G[n] Φ[n] − I) Raa (G[n] Φ[n] − I) + G[n] Cee GT [n] .

(9.39)

Bei Erwartungstreue gilt G[n] Φ[n] = I, sodass die Schätzfehlerkovarianz Ca˜a˜ [n] lediglich von der Messfehlerkovarianz Cee abhängig ist: Ca˜a˜ [n] = G[n] Cee GT [n] .

(9.40)

9.2 Least-Squares-Schätzer 9.2.1 Parameterschätzung für ein lineares Signalmodell Für die Schätzung der Parameter a des linearen Signalmodells nach Abschnitt 9.1 wird folgendes Kriterium formuliert: Ein aufgezeichnter Messvektor y[n] soll mögˆ [n] approximiert werden. Das Kriterilichst gut durch den geschätzten Messvektor y um dafür ist die Minimierung der quadratischen Norm: C C2 Cy[n] − y ˆ [n]C2 → min . (9.41) Nach dem Projektionstheorem ist bei einer in diesem Sinne optimalen Schätzung der Fehlervektor orthogonal zum Schätzvektor [6]: ˆ [n], y ˆ [n] = 0 . y[n] − y

(9.42)

ˆ [n] wird das Signalmodell (9.28) als LinearkombiFür den geschätzten Messvektor y nation der Basisvektoren ϕk [n] mit den zu schätzenden Parametern als Gewichtsfaktoren angesetzt: ˆ [n] = y

K−1  k=0

a ˆk [n] ϕk [n] .

(9.43)

9.2

Least-Squares-Schätzer

425

Die Schätzung liefert nur dann gute Ergebnisse, wenn das Signalmodell ausreichende Gültigkeit besitzt. Damit wird das Innenprodukt (9.42) E K−1 D K−1   ˆ [n], ϕk [n] = 0 . ˆ [n], a ˆk [n] ϕk [n] = a ˆ∗k [n] y[n] − y (9.44) y[n] − y k=0

k=0

ˆ [n] ist auch zu allen Basisvektoren ϕk orthogonal, die einen Der Fehlervektor y[n] − y K-dimensionalen Unterraum zur Approximation des Messvektors aufspannen [6]. Aus ˆ [n], ϕk [n] = 0 y[n] − y

(9.45)

erhält man die Normalengleichung T ˆ [n] . ϕT k [n] y[n] = ϕk [n] y

(9.46)

Diese wird für k = 0, . . . , K − 1 wiederholt, wobei durch die Zusammenfassung der K transponierten Basisvektoren gerade die transponierte Beobachtungsmatrix ⎤ ⎡ T ϕ0 [n] ⎥ ⎢ .. (9.47) ΦT [n] = ⎣ ⎦ . ϕT K−1 [n] entsteht. Aus der Normalengleichung (9.46) wird ˆ [n] . ΦT [n] y[n] = ΦT [n] y

(9.48)

Einsetzen von (9.43) ˆ [n] = y

K−1 

ˆ [n] a ˆk [n] ϕk [n] = Φ[n] a

(9.49)

k=0

ergibt ˆ [n] . ΦT [n] y[n] = ΦT [n] Φ[n] a

(9.50)

ˆ [n] erhält man den LeastDurch Invertierung der quadratischen K × K-Matrix vor a Squares-Schätzer (kurz: LS-Schätzer) für den Parametervektor:  ˆ [n] = ΦT [n] Φ[n] a



−1

ΦT [n] y[n] = G[n] y[n] . 

(9.51)

Pseudoinverse

Das lineare Signalmodell hat eine niedrige Ordnung K. Die Zahl der Messungen N ist dagegen typischerweise groß: N  K. Der Least-Squares-Schätzer stellt die Lösung eines überbestimmten Gleichungssystems dar, wobei die Summe der Fehlerquadrate minimiert wird (Abschnitt 2.1.2). Die Matrix vor y[n] in (9.51) nennt man Pseudoin-

426

9. Parameterschätzung

verse. Durch die große Anzahl der Messungen N werden zufällige Messfehler e[n] stark reduziert. Durch Einsetzen des Signalmodells (9.27) in (9.51) und Erwartungswertbildung zeigt sich, dass bei mittelwertfreien Messfehlern e[n] der Least-SquaresSchätzer erwartungstreu ist: E{ˆ a[n]} = G[n] · E{y[n]} = G[n] Φ[n] a + G[n] · E{e[n]} ,

 

(9.52)

=0

da die Bedingung für Erwartungstreue (vergleiche Beispiel 9.2) erfüllt wird:  −1 ΦT [n] Φ[n] = I . G[n] Φ[n] = ΦT [n] Φ[n]

(9.53)

Anmerkung Gleichung (9.50) kann mit Hilfe der Basisvektoren ϕk in Form von Innenprodukten geschrieben werden: ⎡ ⎤ ⎡ ⎤⎡ ⎤ ϕ0 , y

ϕ0 , ϕ0 . . . ϕ0 , ϕK−1

a ˆ0 ⎢ ⎥ ⎢ ⎥ ⎢ .. ⎥ .. .. .. .. (9.54) ⎣ ⎦=⎣ ⎦⎣ . ⎦ . . . . ϕK−1 , ϕ0 . . . ϕK−1 , ϕK−1

ϕK−1 , y

a ˆK−1

  Gram’sche Matrix

Nach [6] entspricht also die optimale Bestimmung der Koeffizienten einer Basisentwicklung gerade der Minimierung der Fehlerquadrate. Beispiel 9.3 (Least-Squares-Schätzer für ein lineares Signalmodell): Für eine Messung

wird das Signalmodell y(t) = a0 + a1 · t + e(t)

(9.55)

angesetzt. Dem Messsignal y(t) ist ein mittelwertfreies weißes Rauschen e(t) überlagert. Bei Abtastung von N Messwerten mit der Abtastzeit tA erhält man aus (9.55) das Signalmodell in Vektorschreibweise: ⎡ ⎤ ⎤ ⎡ ⎤ ⎡ 1 0 tA e(0 tA ) y(0 tA )   ⎢ e(1 t ) ⎥ ⎥ ⎢ y(1 t ) ⎥ ⎢1 1 tA a0 A A ⎢ ⎥ ⎥ ⎢ ⎥ ⎢ .. .. .. +⎢ (9.56) ⎥· ⎥ = ⎢ .. ⎥. ⎢ ⎣ ⎣ ⎦ ⎦ ⎦ ⎣ a . . . . 1 y((N − 1) tA ) e((N − 1) tA ) 1 (N − 1) tA        

y

Φ

a

e

ˆ ergibt sich aus (9.51) mit dem Zwischenschritt Der gesuchte Parametervektor a ⎤ ⎡   1 0 tA .. 1 ··· 1 ⎥ ⎢. (9.57) · ⎣ .. ΦT Φ = ⎦ . 0 tA · · · (N −1) tA 1 (N −1) tA

9.2

Least-Squares-Schätzer



N −1

N

n=0

= N −1

n tA

n=0

zu

427

N −1 n=0

n tA

(n tA )2



 =

N

N (N −1) tA 2

N (N −1) −1) 2 tA N (N −1)(2N tA 2 6

 (9.58)



⎤ N −1 −1) N −1 N −1 2 (NN−1)(2N n=0 y[n] − 6 N (N 2 −1) tA n=0 n tA y[n] (N 2 −1) ⎦. ˆ=⎣ a N −1 N −1 12 N −1 n t y[n] − 6 y[n] 2 2 A 2 n=0 n=0 N (N −1) tA N (N −1) t

(9.59)

A

Beispiel 9.4 (Least-Squares-Schätzer und Mittelwertschätzer): Die Strahlungsintensität

K(t) eines radioaktiven Materials ändert sich exponentiell: K(t) = K0 e−λt ,

(9.60)

λ > 0,

wobei λ die Zerfallskonstante bezeichnet. Aus N äquidistant mit der Abtastzeit tA erfassten Messwerten soll der Anfangswert K0 der Strahlung bestimmt werden. Das entsprechende Signalmodell lautet: y[n] = K0 e−λntA + e[n] ,

n = 0, . . . , N − 1 .

(9.61)

Die Störung e[n] wird als weißes Rauschen mit der Varianz σe2 angenommen. In Vektorschreibweise ergibt sich das Signalmodell (9.61) zu: ⎤ ⎡ −λ0tA ⎤ ⎤ ⎡ ⎡ y[0] e e[0] ⎢ y[1] ⎥ ⎢ e−λ1tA ⎥ ⎢ e[1] ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ (9.62) ⎥=⎢ ⎥. ⎢ ⎥ · K0 + ⎢ .. .. .. ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ . . .

y[N − 1]   y

e−λ(N −1)tA  

e[N − 1]

Φ

Zunächst soll der Least-Squares-Schätzer für K0 bestimmt werden, der sich aus (9.62) wie folgt berechnet: ⎡ ⎤ e−λ0tA B A .. ⎢ ⎥ (9.63) ΦT Φ = e−λ0tA . . . e−λ(N −1)tA ⎣ . ⎦ e−λ(N −1)tA =

N −1  n=0

e−2λntA =

1 − e−2λN tA . 1 − e−2λtA

(9.64)

Dabei wurde die Summe in (9.64) über die Formel für die endliche geometrische N −1 N Reihe n=0 q n = 1−q 1−q , q = 1, umgeformt. Das Produkt aus Beobachtungsmatrix

428

9. Parameterschätzung

und Messvektor ergibt: ΦT y =

N −1 

e−λntA y[n] .

(9.65)

n=0

Damit folgt für den Least-Squares-Schätzer: −1 −2λtA N    ˆ0 = ΦT Φ −1 ΦT y = 1 − e e−λntA y[n] . K 1 − e−2λN tA n=0

(9.66)

Der Least-Squares-Schätzer soll im Folgenden mit einem Mittelwertschätzer verglichen werden. Bei diesem wird K0 ausgehend von (9.61) aus jedem einzelnen ¯0 über die einzelMesswert getrennt geschätzt und anschließend der Mittelwert K nen Schätzwerte gebildet: N −1  ¯0 = 1 y[n] · eλntA . K N n=0

(9.67)

Der Schätzfehler des Mittelwertschätzers berechnet sich wie folgt: N −1  ¯ 0 − K0 = 1 eλntA y[n] − K0 K N n=0 N −1  1   λntA = K0 e−λntA + eλntA e[n] − K0 e N n=0

=

N −1 N −1  1 1  λntA K0 1+ e e[n] − K0 N N n=0 n=0

N −1 1  λntA = e e[n] . N n=0

(9.68) (9.69) (9.70) (9.71)

Beim Least-Squares-Schätzer ergibt sich für den Schätzfehler: −1 −2λtA N  ˆ 0 − K0 = 1 − e e−λntA y[n] − K0 K 1 − e−2λN tA n=0

(9.72)

=

N −1  1 − e−2λtA   −λntA −λntA −λntA e K e + e e[n] − K0 0 −2λN t A 1−e n=0

(9.73)

=

N −1 N −1  1 − e−2λtA 1 − e−2λtA  −λntA −2λN tA K e + e e[n] − K0 0 1 − e−2λN tA 1 − e−2λN tA n=0 n=0

 

(9.74)

=

N −1  1−e e−λntA e[n] . 1 − e−2λN tA n=0

= K0 −2λtA

(9.75)

9.2

Least-Squares-Schätzer

429

Aus (9.71) und (9.75) folgt unmittelbar, dass beide Schätzer für E{e[n]} = 0 erwartungstreu sind, da der Erwartungswert ihrer Schätzfehler verschwindet: N −1  2 1 ¯ 0 − K0 = 1 eλntA E{e[n]} = 0 , E K N n=0

(9.76)

−1 −2λtA N  1 2 ˆ 0 − K0 = 1 − e E K e−λntA E{e[n]} = 0 . 1 − e−2λN tA n=0

(9.77)

Aufgrund der Erwartungstreue kann zur Konsistenzprüfung die Varianz des Schätzfehlers als Erwartungswert des quadrierten Fehlers berechnet werden. Für den Mittelwertschätzer erhält man: < ; 2 ¯ 0 − K0 ) 2 (9.78) [N ] = E (K σMW =

N −1 N −1  1   λntA e E{e[n] e[n ]} eλn tA

  N 2 n=0 

(9.79)

N −1 σe2  2λntA e N 2 n=0

(9.80)

n =0

=

= σe2

δnn

N

−−−→ ∞ . ∞

Analog ergibt sich für die Varianz des Least-Squares-Schätzers: ;  < 2 ˆ 0 − K0 2 [N ] = E K σLS  2 N −1 N −1   1 − e−2λtA = · e−λntA E{e[n] e(n )} e−λn tA

  1 − e−2λN tA n=0  n =0

 = =

1 − e−2λtA 1 − e−2λN tA

2 ·

N −1 

(9.81) (9.82)

= σe2 δnn

e−2λntA σe2

(9.83)

n=0

  1 − e−2λtA 2 N σe −−−→ 1 − e−2λtA σe2 . −2λN t A ∞ 1−e

(9.84)

Beide Schätzer sind nicht konsistent. Beim Mittelwertschätzer existiert ein optimales N , für das die geringste Schätzfehlervarianz erzielt wird. Bei Hinzunahme weiterer Messwerte verschlechtert sich das Ergebnis. Der Grund dafür liegt darin, dass der Betrag des Nutzsignals für wachsende n monoton abnimmt, während das Rauschen konstant bleibt, d. h. das SNR des Messsignals wird mit zunehmendem n immer schlechter. Dagegen nimmt beim Least-Squares-Schätzer die Varianz des Schätzfehlers bei Hinzunahme von Messwerten monoton ab und konvergiert gegen einen endlichen Wert.

430

9. Parameterschätzung

9.2.2 Filterbank-Methode Die Schätzung in (9.51) lässt sich mittels einer Filterbank realisieren, bei der für jeden Parameter a ˆk die Impulsantwort gk eines zeitdiskreten Filters mit dem Messvektor y[n] gefaltet wird: ˆ [n] = G[n] y[n] , a a ˆk [n] = gkT y[n] =

(9.85) N −1 

gk [m] y[n − m] .

(9.86)

m=0

In manchen Anwendungen ist zwar eine hinreichend hohe Ordnung K des Signalmodells (d. h. Anzahl an Basisfunktionen) für eine präzise Signalbeschreibung nötig, aber nur wenige Parameter sind tatsächlich von Interesse. In solchen Fällen kann man die Schätzung auf den Einsatz weniger Filter gkT beschränken, ohne auf die Genauigkeit der Modellbildung zu verzichten. Im Folgenden wird ein einzelner Schätzvorgang mit N Messwerten betrachtet; der diskrete Zeitparameter n wird deshalb unterdrückt. Für die inverse Matrix in (9.51) wird der Ansatz ⎤ ⎡ α0,0 · · · α0,K−1  −1 .. ⎥ ⎢ . (9.87) = ⎣ .. ΦT Φ ⎦ . αK−1,0 · · · αK−1,K−1 mit zunächst unbekannten αkj gewählt. Der Least-Squares-Schätzer (9.51) wird damit ⎡ ⎤ ⎡ ⎤ ⎡ T ⎤ ⎡ T ⎤ a ˆ0 α0,0 · · · α0,K−1 ϕ0 g0 .. ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ = · · y = (9.88) ⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦ · y. . αK−1,0 · · · αK−1,K−1

a ˆK−1

ϕT K−1

T gK−1

Ein einzelner zu schätzender Parameter ist a ˆk =

K−1  j=0

T αkj ϕT j y = gk y ,



T = gk

(9.89)



woraus sich das k-te Filter der Filterbank ergibt: gk =

K−1 

αkj ϕj .

(9.90)

j=0

Zur Berechnung des Filters gk wird (9.90) in die Bedingung (9.53) für Erwartungstreue eingesetzt, GΦ = I



gkT ϕi = δki ,

(9.91)

9.2

Least-Squares-Schätzer

431

woraus für i = 0, . . . , K − 1 und k = 0, . . . , K − 1 insgesamt K 2 Bestimmungsgleichungen für die gesuchten αkj resultieren: K−1 

αkj ϕT j ϕi =

K−1 

j=0

αkj ϕj , ϕi = δki .

(9.92)

j=0

Ist man nur an einem Filter gk zur Schätzung eines einzigen Parameters a ˆk interessiert, so benötigt man lediglich K Elemente αkj . Das Innenprodukt der Basisvektoren in (9.92) wurde für zeitdiskrete Funktionen angesetzt. Bei zeitkontinuierlichen Basisfunktionen ϕi (t), ϕj (t) lässt sich deren Innenprodukt als Integral über das Beobachtungsfenster T0 berechnen: "T0 ϕj (t), ϕi (t) =

ϕj (t) ϕi (t) dt .

(9.93)

0

Das zeitkontinuierliche Beobachtungsfenster T0 entspricht dem zeitdiskreten Beobachtungsfenster der Länge N tA mit der Abtastzeit tA . Nach (9.91) sind die Impulsantworten des Schätzfilters gk (t) , k = 0, . . . , K − 1, und die Basisfunktionen ϕi (t) , i = 0, . . . , K − 1, biorthogonal: gk (t), ϕi (t) = δki .

(9.94)

Die Bestimmungsgleichungen (9.92) für die αkj sind damit im zeitkontinuierlichen Fall ⎛T ⎞ "0 K−1  αkj ⎝ ϕj (t) ϕi (t) dt⎠ = δki . (9.95) j=0

0

Die Impulsantwort des Schätzfilters für den k-ten Parameter a ˆk wird mit (9.90) gk (t) =

K−1 

αkj ϕj (t) ,

0 ≤ t ≤ T0 .

(9.96)

j=0

Beispiel 9.5 (Schnelle Wiegeeinrichtung): An einer Federwaage wird die Beschleuni-

gung x ¨(t) gemessen, um daraus die Masse m bereits vor dem Abklingen des Einschwingvorgangs zu schätzen (Abb. 9.2). Die Schätzung soll lange vorliegen, bevor der stationäre Endzustand erreicht ist. Dadurch kann die Zahl der Wiegevorgänge pro Zeit stark erhöht werden. Diese Technik wird z. B. bei Verpackungsmaschinen angewandt. Die Differentialgleichung ergibt sich aus der Kräftebilanz: mx ¨(t) + d x(t) ˙ + c x(t) + F (t) = 0 ,

(9.97)

432

9. Parameterschätzung

Abbildung 9.2. Schnelle Wiegeeinrichtung.

wobei d die Dämpfung, c die Federkonstante, x(t) die Auslenkung und F (t) die Anregungskraft bezeichnen. Durch Laplace-Transformation   1 1 ¨ ¨ = −F (s) mit x ¨(t) ◦−• X(s) , (9.98) m + d + c 2 X(s) s s ¨ wobei X(s) die Laplace-Transformierte der Beschleunigung x ¨(t) bezeichnet, folgt der Zusammenhang zwischen äußerer Kraft und Beschleunigung im Bildbereich: ¨ X(s) =−

s2 · F (s) . m · s2 + d · s + c

(9.99)

Zum Zeitpunkt t = 0 wird die Masse m auf die Waage gelegt, sodass die Gewichtskraft erst ab diesem Zeitpunkt wirkt. Für F (t) gilt deshalb: F (t) = −m g · σ(t)

◦−•

F (s) = −m g ·

1 . s

(9.100)

Die resultierende Beschleunigung im Bildbereich ist damit: s

¨ X(s) = g· s2 + = g·

c d ·s + m m

= g· 

s (s + α)2 + β 2

d s+ 2m



s 2

α

d2 c − + 2

m 4m 

(9.101)

β2

(9.102)

mit den Abkürzungen α=

d , 2m

β2 =

d2 c − , m 4m2

α2 + β 2 =

c . m

(9.103)

Durch inverse Laplace-Transformation erhält man die Sprungantwort der Beschleunigung im Zeitbereich: B A α t ≥ 0. (9.104) x ¨(t) = g · exp(−αt) · cos(βt) − · sin(βt) , β Abbildung 9.3 zeigt exemplarisch drei Verläufe der Beschleunigung x ¨(t) für verschiedene Dämpfungen d. Für den Einsatz des Least-Squares-Schätzers muss die Beschleunigung (9.104) durch ein lineares Signalmodell gemäß (9.1) beschrieben werden. Zu diesem

9.2

Least-Squares-Schätzer

433

Abbildung 9.3. Verläufe der Beschleunigung x ¨(t) für verschiedene Dämpfungen d und eine Federkonstante

von c = 1 N/m. Die zu schätzende Masse beträgt m = 1 kg.

Zweck werden als Näherungen der Exponentialfunktion und der trigonometrischen Funktionen ihre Taylor-Entwicklungen bis zum kubischen Glied exp(−αt) ≈ 1 − αt +

α2 2 α 3 3 t − t , 2 6

(9.105)

2

β 2 t , cos(βt) ≈ 1 −  2 α αβ 2 3 α 1 3 3 sin(βt) ≈ βt − β t = αt − t β β 6 6

(9.106) (9.107)

herangezogen, die nur für kleine t gültig sind. Daraus resultiert das folgende lineare Signalmodell für den Einschwingvorgang der Beschleunigung: ( ' 2 1 2 2 2 2 3 3 (9.108) x ¨(t) = g · 1 − 2αt + (3α − β )t + (αβ − α )t 2 3    '  ( 1 d2 c 1 dc d3 d 2 t − + − = g· 1− t+ t3 (9.109) m 2 m2 m 3 m2 2m3 = > = g · a0 + a1 · t + a2 · t2 + a3 · t3 (9.110) = g · [a0 · ϕ0 (t) + a1 · ϕ1 (t) + a2 · ϕ2 (t) + a3 · ϕ3 (t)] ,

t ≥ 0.

(9.111)

Die Dämpfung d und die Federkonstante c seien bekannt. Zur Bestimmung der Masse m reicht es aus, den Parameter a1 zu schätzen: m=−

d . a1

(9.112)

434

9. Parameterschätzung

Abbildung 9.4. Verlauf der Tangente an die Sprungantwort in t = 0 für verschiedene Massen m. Es gilt: c = 1 N/m und d = 1 Ns/m.

Dennoch hat das Signalmodell die Ordnung K = 4, um den Beschleunigungsverlauf während der Anfangsphase ausreichend genau zu beschreiben. Wird an die Sprungantwort x ¨(t) eine Tangente in t = 0 angelegt, so schneidet diese die Zeitachse an der Stelle t = m d (vgl. Abb. 9.4). Dieser Wert kann als Anhaltspunkt für ein Zeitfenster dienen, in dem die Approximation der Exponentialfunktion und der trigonometrischen Funktionen ausreichend genau sind. Soll die Messeinrichtung für einen Messbereich m ∈ [mmin , mmax ] gute Schätzungen besitliefern, so sollte das Beobachtungsfenster maximal die Länge T0 = mmin d zen. Andererseits sollte das Beobachtungsfenster nicht kürzer gewählt werden, da sonst das beobachtete Messsignal zu wenig Information enthalten würde. Die Schätzung erfolgt also über das Beobachtungsfenster T0 =

mmin . d

(9.113)

Zur Ermittlung der Gewichtungsfaktoren αkj wird (9.92) in Matrixform verwendet: ⎡ ⎤ ⎡ ⎤ ⎤⎡ ϕ0 (t), ϕ0 (t) ϕ1 (t), ϕ0 (t) ϕ2 (t), ϕ0 (t) ϕ3 (t), ϕ0 (t)

αk0

δk0

⎢ ⎥ ⎢ ⎥ ⎥⎢ ⎢ ϕ0 (t), ϕ1 (t) ϕ1 (t), ϕ1 (t) ϕ2 (t), ϕ1 (t) ϕ3 (t), ϕ1 (t) ⎥ ⎢ αk1 ⎥ ⎢ δk1 ⎥ ⎢ ⎥=⎢ ⎥ ⎥ ·⎢ ⎢ ϕ (t), ϕ (t) ϕ (t), ϕ (t) ϕ (t), ϕ (t) ϕ (t), ϕ (t) ⎥ ⎢ α ⎥ ⎢ δ ⎥ . 2 1 2 2 2 3 2 ⎣ 0 ⎦ ⎣ k2 ⎦ ⎣ k2 ⎦ ϕ0 (t), ϕ3 (t) ϕ1 (t), ϕ3 (t) ϕ2 (t), ϕ3 (t) ϕ3 (t), ϕ3 (t)

αk3

δk3

(9.114)

9.2

Least-Squares-Schätzer

435

Die Innenprodukte der Basisvektoren werden nach (9.93) bestimmt: "T0 ϕi (t), ϕj (t) =

(9.115)

ϕi (t) ϕj (t) dt . 0

Nach Auswertung aller Innenprodukte ergeben sich für k = 1 (d. h. bei Schätzung nur des Parameters a1 ) ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ T2 T3 T4 T0 20 30 40 α10 0 ⎢ 2 3 4 5⎥ ⎢ ⎥ ⎢ ⎥ ⎢ T 0 T0 T0 T0 ⎥ ⎢ ⎢ ⎥ ⎢ 2 3 4 5 ⎥ ⎢ α11 ⎥ ⎥ ⎢1⎥ ⎢ ⎥·⎢ = (9.116) ⎥ ⎢ ⎥ ⎢ T03 T04 T05 T06 ⎥ ⎢ ⎢0⎥ ⎢ 3 4 5 6 ⎥ ⎣ α12 ⎥ ⎦ ⎣ ⎦ ⎣ ⎦ T04 T05 T06 T07 0 α13 4

5

6

7

die folgenden Gewichtungsfaktoren: ⎡ ⎤ ⎡ 120 ⎤ − T2 α10 0 ⎢ ⎥ ⎢ 1200 ⎥ ⎢ α11 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ T03 ⎥ ⎢ ⎥ = ⎢ 2700 ⎥ . ⎢ α12 ⎥ ⎢ − 4 ⎥ ⎣ ⎦ ⎣ T ⎦

(9.117)

0

1680 T05

α13

Zur Bestimmung der Impulsantwort g1 (t) des Schätzfilters für den Parameter a1 wird (9.96) herangezogen: g1 (t) = α10 · ϕ0 (t) + α11 · ϕ1 (t) + α12 · ϕ2 (t) + α13 · ϕ3 (t)

(9.118)

2700 1680 120 1200 + 3 · t − 4 · t2 + 5 · t3 , 2 T0 T0 T0 T0

(9.119)

=−

0 ≤ t ≤ T0 .

Nach (9.86) lässt sich der Parameter a ˆ1 aus dem Innenprodukt aus Impulsantwort ¨(t) berechnen: g1 (t) und dem gemessenen Verlauf der Beschleunigung x "T0 a ˆ1 = g1 (t), x ¨(t) =

g1 (t) x ¨(t) dt ,

(9.120)

0

wobei a ˆ1 die Schätzung des Parameters a1 darstellt. Die Schätzung der Masse m ˆ erfolgt durch Einsetzen von (9.120) in (9.112): m ˆ=−

d . a ˆ1

(9.121)

In Abb. 9.5 ist die Abhängigkeit von m ˆ vom Beobachtungsfenster T0 dargestellt. Der wahre Wert der Masse beträgt dabei m = 1 kg. Die Messung der Beschleunigung x ¨(t) wurde als ideal entsprechend (9.104) angenommen. In Abb. 9.5 und

436

9. Parameterschätzung

Abbildung 9.5. Ergebnis der Schätzung einer Masse von m = 1 kg für verschieden große Beobachtungs-

fenster T0 und für verschiedene Dämpfungen d. Es gilt: c = 1 N/m.

Abbildung 9.6. Einfluss der Größe des Beobachtungsfensters T0 auf die Güte der Schätzung. Die Masse m

wird variiert. Es gilt hier: c = 1 N/m, d = 2 Ns/m.

Abb. 9.6 ist deutlich zu sehen, dass für T0 > mmin unbefriedigende Ergebnisse d erzielt werden, weil das linearisierte Signalmodell für größere Beobachtungsintervalle den Einschwingvorgang nicht mehr ausreichend genau zu beschreiben vermag.

9.3

Gauß-Markov-Schätzer

437

Anmerkung Verwendet man statt der Messgröße x ¨(t) die im Beobachtungsfenster 0 ≤ t ≤ T0  ¨˜(t∗ ) = x zeitlich gespiegelte Messgröße, x ¨(t − t∗ )t=T0 , so kann man (9.120) als Faltung interpretieren: "T0 ¨˜(t) = a ˆ1 (t) = g1 (t) ∗ x 0

¨˜(t − τ ) dτ . g1 (τ ) x

 

(9.122)

¨ x(τ )

Gleichung (9.122) ist damit äquivalent zu (9.86) im zeitdiskreten Fall. Dies wird verständlich, wenn man die zeitliche Folge der einzelnen Messwerte in (9.17) betrachtet.

9.3 Gauß-Markov-Schätzer Beim Least-Squares-Schätzer (Abschnitt 9.2) wurden der Fehler e des linearen Signalmodells (9.27) als mittelwertfreies weißes (d. h. unkorreliertes) Rauschen mit konstanter Varianz und die Statistik des Parametervektors a als unbekannt (bzw. a als deterministisch) angenommen. Beim Gauß-Markov-Schätzer wird der Parametervektor dagegen als Zufallsvektor a interpretiert und dessen Statistik über dessen Autokorrelationsmatrix Raa beschrieben. Insgesamt werden bei der Herleitung des GaußMarkov-Schätzers die folgenden Annahmen getroffen: 1. Der Modellfehler e sei mittelwertfreies farbiges Rauschen mit der bekannten Autokovarianzmatrix Cee . 2. Die Autokorrelationsmatrix Raa des Parametervektors a sei bekannt. 3. Der Parametervektor a sei stochastisch unabhängig vom Fehlervektor e: E{a · eT } = E{a} · E{eT } ,

(9.123)

E{e · aT } = E{e} · E{aT } .

(9.124)

Da die einzelnen Parameter ak des linearen Signalmodells (9.27) als Zufallsvariable interpretiert werden, kann nun die Approximation einer Funktion y[n] im Funktionenraum entsprechend (9.41) durch eine Approximation der stochastischen Variablen ak im Vektorraum stochastischer Variabler ersetzt werden: ˆ ak [n] − ak 2



(9.125)

min .

Laut dem Projektionstheorem [6] ist der optimale Schätzparameter a ˆk [n] orthogonal zum Fehler a ˆk [n] − ak : ˆk [n] = 0 ˆ ak [n] − ak , a

∀k.

(9.126)

438

9. Parameterschätzung

Nun wird entsprechend (9.86) jeder zu schätzende Parameter a ˆk [n] als Faltung des Messsignals y[n] mit der Impulsantwort gk [n] eines Schätzfilters interpretiert: E N −1 D N −1   gk [m] y[n−m] = gk∗ [m] ˆ ak [n]−ak , y[n−m] = 0 . (9.127) a ˆk [n]−ak ,

  m=0 m=0 !

= 0 ∀ m,k

Das Innenprodukt ist bei Zufallsgrößen als Erwartungswert definiert: ak [n] − ak ) · y[n − m]} = 0 ˆ ak [n] − ak , y[n − m] = E{(ˆ

∀ m, k .

(9.128)

Für k = 0, . . . , K − 1 und m = 0, . . . , N − 1 erhält man insgesamt K × N Gleichungen, die in Matrixnotation als dyadisches Produkt zusammengefasst werden können: 2 1 (9.129) E (ˆ a[n] − a) · yT [n] = 0 bzw. 2 1 2 1 ˆ [n] · yT [n] . E a · yT [n] = E a

(9.130)

ˆ [n] der Ansatz (9.85) für das Schätzfilter eingesetzt: In diese Beziehung wird für a 2 1 2 1 (9.131) E a · yT [n] = G[n] · E y[n] · yT [n] = G[n] · Ryy . Die Berechnung der Autokorrelationsmatrix Ryy erfolgt durch Einsetzen des Signalmodells y[n] = Φ[n] a + e[n] aus (9.27): 1 2 (9.132) Ryy = E y[n] yT [n] 1 2 = E Φ[n] a aT ΦT [n] + Φ[n] a eT [n] + e[n] aT ΦT [n] + e[n] eT [n] (9.133)

    =0

=0

= Φ[n] · Raa · ΦT [n] + Cee .

(9.134)

Einsetzen des Signalmodells in die linke Seite von (9.131) ergibt entsprechend: 2 2 1 1 (9.135) E a · yT [n] = E a · aT · ΦT [n] + a · eT [n] = Raa · ΦT [n] .

  =0

Insgesamt erhält man aus (9.131) mit (9.134) und (9.135)  Raa · ΦT [n] = G[n] · Φ[n] · Raa · ΦT [n] + Cee und daraus den Gauß-Markov-Schätzer  GGM [n] = Raa · ΦT [n] · Φ[n] · Raa · ΦT [n] + Cee

−1

(9.136)

.

(9.137)

Die zu invertierende Matrix hat die Größe N ×N und ist somit aufwendig zu invertieren. Für die praktische Berechnung wird dieser Ausdruck deshalb mit Hilfe der

9.3

Gauß-Markov-Schätzer

439

sogenannten Woodbury-Matrix-Identität [4]  −1 −1 V A−1 (A + U B V) = A−1 − A−1 U B−1 + V A−1 U

(9.138)

umgeformt, wobei A, U, B und V Matrizen kompatibler Größe bezeichnen und ferner A und B regulär sind. Dafür wird zunächst (9.138) von rechts mit U und B multipliziert und wie folgt vereinfacht:  −1 −1 , (9.139) (A + U B V) U B = A−1 U B−1 + V A−1 U wobei die rechte Seite der Gleichung die gleiche Struktur wie (9.137) hat. Durch Einsetzen der Zuordnungen A = R−1 aa ,

U = ΦT [n] ,

B = C−1 ee ,

V = Φ[n]

(9.140)

in die linke Seite von (9.139) folgt unmittelbar für den Gauß-Markov-Schätzer:  −1 GGM [n] = ΦT [n] · C−1 ee · Φ[n] + Raa

−1

· ΦT [n] · C−1 ee .

(9.141)

Die zu invertierende Matrix hat jetzt nur noch die Dimension K × K. Zur Schätzung des Parametervektors a müssen dessen Autokorrelationsmatrix Raa und die Autokovarianzmatrix Cee des Fehlers e[n] bekannt sein. Der Gauß-Markov-Schätzer ist wegen GGM [n] · Φ[n] = I

(9.142)

nicht erwartungstreu; vgl. Beispiel 9.2 auf S. 423. Ist die Statistik des Parametervektors a nicht bekannt, so geht man oftmals von einer Gleichverteilung über einem unendlich großen Intervall aus, d. h. die Varianzen des Parametervektors gehen gegen unendlich, woraus R−1 aa → 0 folgt. Auf diese Weise entsteht der Minimum-VarianzSchätzer als Sonderfall des Gauß-Markov-Schätzers bei vagem Wissen über den Parametervektor:  −1 GMV [n] = ΦT [n] · C−1 · ΦT [n] · C−1 (9.143) ee · Φ[n] ee . Der Minimum-Varianz-Schätzer ist erwartungstreu: GMV [n] · Φ[n] = I .

(9.144)

Bei diesem Schätzer handelt es sich somit um den besten linearen erwartungstreuen Schätzer (engl. best linear unbiased estimator, BLUE) bei korreliertem Fehler e[n] mit der Autokovarianzmatrix Cee . Die Schätzfehlerkovarianz Ca˜a˜ [n] ist nach (9.39) gegeben durch T

Ca˜a˜ [n] = (G[n] Φ[n] − I) Raa (G[n] Φ[n] − I) + G[n] Cee GT [n]

(9.145)

440

9. Parameterschätzung

= G[n] Φ[n] Raa ΦT [n] GT [n] − G[n] Φ[n] Raa − Raa ΦT [n] GT [n] + Raa + G[n] Cee GT [n]

(9.146)

= Raa − Raa ΦT [n] GT [n] − G[n] Φ[n] Raa  + G[n] Φ[n] Raa ΦT [n] + Cee GT [n]  

(9.147)

= Raa − G[n] Φ[n] Raa = (I − G[n] Φ[n]) Raa .

(9.148)

= Raa ΦT [n] nach (9.136)

Nun wird der Gauß-Markov-Schätzer (9.141) in (9.148) eingesetzt und dabei die innere Klammer erweitert, wobei zur Vereinfachung der Schreibweise das Argument n unterdrückt wurde: A     −1 −1 T −1 −1 −1 Φ Cee Φ + ΦT C−1 R−1 Ca˜a˜ [n] = I − ΦT C−1 ee Φ + Raa ee Φ + Raa aa

  =I B   −1 −1 Raa . − ΦT C−1 R−1 (9.149) ee Φ + Raa aa Daraus folgt für die Schätzfehlerkovarianz des Gauß-Markov-Schätzers:  −1 Ca˜a˜ [n] = ΦT [n] C−1 ee Φ[n] + Raa

−1

.

(9.150)

Für R−1 aa → 0 erhält man daraus die Schätzfehlerkovarianz des Minimum-VarianzSchätzers:  −1 . (9.151) Ca˜a˜ [n] = ΦT [n] C−1 ee Φ[n] Bei unbekannter Autokovarianzmatrix des Messfehlers Cee wird e[n] oft als weißes Rauschen angesetzt: 1 2 (9.152) Cee = E e[n] · eT [n] = σe2 · I . Damit wird aus dem Minimum-Varianz-Schätzer (9.143) der Least-Squares-Schätzer  −1 T Φ [n] ; (9.153) GLS [n] = ΦT [n] Φ[n] die zugehörige Schätzfehlerkovarianz ergibt sich zu:  −1 . Ca˜a˜ [n] = σe2 · ΦT [n] Φ[n]

(9.154)

9.4 Rekursiver Least-Squares-Schätzer Anstelle der Schätzung in einem Schritt soll im Folgenden die Least-Squares-Schätzung rekursiv durch Hinzunahme neuer Messwerte verbessert werden. Dabei nimmt der Stichprobenumfang mit der diskreten Zeit n zu (Tab. 9.1).

9.4

Rekursiver Least-Squares-Schätzer

441

Tabelle 9.1. Zunahme des Stichprobenumfangs.

Diskrete Zeit

Stichprobenumfang

n−1 n

N N +1

9.4.1 Ableitung aus dem Least-Squares-Schätzer Der Least-Squares-Schätzer wurde in Abschnitt 9.2.1 für N Messwerte abgeleitet. Durch Erweiterung des Stichprobenumfangs auf N + 1 Messwerte soll die Schätzung verbessert werden. Dazu wird der Übergang vom diskreten Zeitpunkt n − 1 auf n ˆ [n − 1] zum diskreten Zeitpunkt [n − 1] wurde aus den N betrachtet. Der Schätzwert a Messwerten A BT y[n − 1] = y[n − 1] . . . y[n − N ] (9.155) berechnet. Durch Hinzunahme eines neuen Messwertes y[n] soll die Schätzung im ˆ [n] verbessert werden. Der bisherige Schätzwert ist nach nächsten Zeitpunkt n auf a (9.51) ˆ [n − 1] = G[n − 1] y[n − 1] a −1 T  Φ [n − 1] y[n − 1] , = ΦT [n − 1] Φ[n − 1] wobei die Beobachtungsmatrix ⎤ ⎡ T ϕ [n − 1] ⎥ ⎢ .. Φ[n − 1] = ⎣ ⎦ . T ϕ [n − N ]

(9.156) (9.157)

(9.158)

die Regressionsvektoren ϕT [n − m] für m = 1, . . . , N enthält. Die Schätzfehlerkovarianz (9.154) wird im Folgenden auf die Varianz σe2 des Messfehlers bezogen. Die bezogene Schätzfehlerkovarianzmatrix lautet dann −1 Ca˜a˜ [n − 1]  T P[n − 1] = = Φ [n − 1] Φ[n − 1] . (9.159) σe2 Bei Hinzunahme eines neuen Messwertes y[n] erhöht sich die Größe des Messvektors auf N + 1. Das Signalmodell ist damit       e[n] y[n] ϕT [n] · a[n] + (9.160) = Φ[n − 1] e[n − 1] y[n − 1] oder y[n] = Φ[n] · a[n] + e[n] .

(9.161)

442

9. Parameterschätzung

Mit zunehmendem n wird bei unabhängigen Messwerten die bezogene Schätzfehlerkovarianz  −1 (9.162) P[n] = ΦT [n] Φ[n] −1   B A ϕT [n] (9.163) = ϕ[n] ΦT [n − 1] · Φ[n − 1]  −1 (9.164) = ϕ[n] ϕT [n] + ΦT [n − 1] Φ[n − 1]   −1 = ϕ[n] ϕT [n] + P−1 [n − 1] ≤ P[n − 1] (9.165) kleiner, da der Least-Squares-Schätzer dann konsistent ist. Der Klammerausdruck in (9.165) kann mit Hilfe der Woodbury-Matrix-Identität (9.138) für B = I und V = UT  −1  −1 T −1 A + U UT = A−1 − A−1 U I + UT A−1 U U A (9.166) aufgelöst werden. Mit den Zuordnungen A = P−1 [n − 1]

und

U = ϕ[n]

(9.167)

erhält man aus (9.165) eine effiziente Rekursionsbeziehung für die bezogene Schätzfehlerkovarianz: −1 T  ϕ [n] P[n−1] (9.168) P[n] = P[n−1]− P[n−1] ϕ[n] 1 + ϕT [n] P[n−1] ϕ[n]

  = k[n]

bzw. P[n] = P[n − 1] − k[n] · ϕT [n] · P[n − 1]

(9.169)

mit dem Gewichtungsvektor  −1 k[n] = P[n − 1] · ϕ[n] 1 + ϕT [n] · P[n − 1] · ϕ[n] .

(9.170)

Der Klammerausdruck in (9.170) ist ein Skalar, sodass im Gegensatz zu (9.165) keine Matrixinversion nötig ist. Zur Herleitung der Rekursionsbeziehung für den Parametervektor  −1 ˆ [n] = ΦT [n] Φ[n] a ΦT [n] · y[n] (9.171)   A B y[n] = P[n] · ϕ[n] ΦT [n−1] · (9.172) y[n−1] wird die Beziehung (9.169) für P[n] in (9.172) eingesetzt und ausmultipliziert:    ˆ [n] = P[n−1] − k[n] ϕT [n] P[n−1] ϕ[n] y[n] + ΦT [n−1] y[n−1] a (9.173)

9.4

Rekursiver Least-Squares-Schätzer

443

= P[n−1] ϕ[n] y[n] + P[n−1] ΦT [n−1] y[n−1]

 

(9.174)

ˆ[n−1] =a

− k[n] ϕ [n] P[n−1] ϕ[n] y[n] − k[n] ϕT [n] P[n−1] ΦT [n−1] y[n−1] .

  T

ˆ[n−1] =a

Nun wird der erste Summand in (9.174) um zwei sich aufhebende Klammerausdrücke erweitert:  −1   ˆ [n] = P[n−1] ϕ[n] 1 + ϕT [n] P[n−1] ϕ[n] a 1 + ϕT [n] P[n−1] ϕ[n] y[n]

  = k[n]

ˆ [n−1] − k[n] ϕT [n] P[n−1] ϕ[n] y[n] − k[n] ϕT [n] a ˆ [n−1] +a

(9.175)

ˆ [n−1] = k[n] y[n] + k[n] ϕT [n] P[n−1] ϕ[n] y[n] + a ˆ[n−1] . − k[n] ϕT [n] P[n−1] ϕ[n] y[n] − k[n] ϕT [n] a Die rekursive Schätzvorschrift für den Parametervektor lautet damit:   ˆ [n] = a ˆ [n − 1] + k[n] · y[n] − ϕT [n] · a ˆ [n − 1] . a

(9.176)

(9.177)

Die Prädiktion des neu hinzugekommenen Messwertes y ˆ[n] auf der Grundlage der ˆ [n − 1] ist dabei alten Schätzung a ˆ [n − 1] . y ˆ[n] = ϕT [n] · a

(9.178)

Die Korrektur des Parametervektors berechnet sich aus der Differenz des neuen Messwertes y[n] und des prädizierten Messwertes y ˆ[n], gewichtet mit dem von der Schätzfehlerkovarianz P[n − 1] abhängigen Vektor k[n]. Der Vektor k[n] besagt somit, wie stark die neue Messung y[n] den Schätzwert y ˆ[n] korrigiert. Als Startmatrix für die Rekursion der Schätzfehlerkovarianz hat sich P[0] = c · I

(9.179)

bewährt, wobei für die Konstante c meist ein großer Wert gewählt wird, um einen hohen Grad der Korrektur zu erlauben. Aufgrund der Konsistenzeigenschaft lim P[n] = 0 ,

n→∞

lim k[n] = 0

n→∞

(9.180)

konvergiert der Schätzer mit wachsendem Stichprobemumfang n = N +1 gegen einen festen Parametervektor. Beispiel 9.6 (Gestörte harmonische Schwingung): Die Amplitude A und die Phase ϕ

der durch den Fehler e(t) gestörten harmonischen Schwingung y(t) = A sin(2πf0 t + ϕ) + e(t)

(9.181)

444

9. Parameterschätzung

ˆyy (f ). Abbildung 9.7. Periodogramm S

sollen geschätzt werden. Die Frequenz f0 kann vorab dadurch bestimmt werden, dass aus dem Messsignal y(t) das Periodogramm Sˆyy (f ) berechnet wird, das aufgrund der Periodizität des Signals bei der Frequenz f0 einen deutlichen Peak aufweist (siehe Abb. 9.7). Damit man ein lineares Signalmodell nach Abschnitt 9.1 erhält, geht man auf die Darstellung y(t) = a1 sin(2πf0 t) + a2 cos(2πf0 t) + e(t) über. Die Amplitude A und die Phase ϕ ergeben sich darin jeweils zu   7 a2 2 2 ϕ = arctan . A = a1 + a2 , a1

(9.182)

(9.183)

Der Regressionsvektor in zeitdiskreter Form und der Parametervektor sind: B A (9.184) ϕT [n] = sin(2πf0 tA n) cos(2πf0 tA n) , B A aT [n] = a1 [n] a2 [n] . (9.185) Für mehrere Messungen erhält man damit: y[n] = Φ[n] · a[n] + e[n] .

(9.186)

Der Anfangswert bei n = 0 ist ˆ2 [0] cos(0) , y[0] = a ˆ1 [0] sin(0) + a

(9.187)

9.4

Rekursiver Least-Squares-Schätzer

445

woraus (9.188)

a ˆ2 [0] = y[0] gewählt wird. Der zweite Parameter wird willkürlich als

(9.189)

a ˆ1 [0] = 0 gewählt. Der Anfangswert der Schätzfehlerkovarianzmatrix sei P[0] = c · I ,

c = 103 , . . . , 106 .

Mit der Rekursionsbeziehung für den Gewichtungsvektor nach (9.170) −1  k[1] = P[0] · ϕ[1] 1 + ϕT [1] · P[0] · ϕ[1]

(9.190)

(9.191)

und für die Schätzfehlerkovarianzmatrix nach (9.169) P[1] = P[0] − k[1] · ϕT [1] · P[0] erhält man für n = 1 nach (9.177) den verbesserten Schätzwert   ˆ [0] . ˆ [1] = a ˆ [0] + k[1] · y[1] − ϕT [1] · a a

(9.192)

(9.193)

Die letzten drei Gleichungen müssen nun in jedem Iterationsschritt gelöst werden. Für n = 2 ergibt sich: >−1 = , (9.194) k[2] = P[1] · ϕ[2] 1 + ϕT [2] · P[1] · ϕ[2] P[2] = P[1] − k[2] · ϕT [2] · P[1] ,   ˆ [1] . ˆ [2] = a ˆ [1] + k[2] · y[2] − ϕT [2] · a a

(9.195) (9.196)

ˆ [n] nähert sich dabei mit zunehmendem n dem wahren Wert a Der Schätzwert a ˆ2 für an. Abbildung 9.8 zeigt oben den Verlauf der geschätzten Parameter a ˆ1 und a N = 200 Messwerte und eine Abtastzeit tA = 0,01 s. Die wahren Parameterwerte liegen bei a1 = 2 und a2 = 1. Dies entspricht einer Signalamplitude und einer Phase von A = 2,23

bzw.

ϕ = 0,46 .

(9.197)

Die geschätzten Parameter haben am Ende der Schätzung die Werte a ˆ1 = 1,94 und a ˆ2 = 0,99, was ˆ = 2,18 A

bzw.

φ ˆ = 0,47

(9.198)

entspricht. Abbildung 9.8 zeigt unten das verrauschte Messsignal und das mit den ˆ und φ geschätzten Parametern A ˆ rekonstruierte Signal.

446

9. Parameterschätzung

Abbildung 9.8. Rekursive Least-Squares-Schätzung der verrauschten harmonischen Schwingung: (oben) Verlauf der Parameter ˆ a1 , ˆ a2 ; (unten) verrauschtes Messsignal und geschätztes Signal.

9.4

Rekursiver Least-Squares-Schätzer

447

9.4.2 Rekursiver Least-Squares-Schätzer für zeitvariante Signale Aufgrund der rekursiven Berechnung können mit dem rekursiven Least-SquaresSchätzer auch Signalmodelle mit zeitvarianten Parametern a[n] identifiziert werden. Dabei stört allerdings die Konsistenzeigenschaft (9.180) des Algorithmus. Mit fortlaufender Rekursion wächst die Zahl der Messwerte N . Ein neu hinzukommender Messwert übt dann kaum noch Einfluss auf das Schätzergebnis aus. Deshalb müssen die alten Messwerte „vergessen“ werden. Dazu gibt es folgende heuristische Ansätze. 1. Exponentielle Gewichtung Das bisherige Gütekriterium (9.41)  2 y[n − i] − y ˆ[n − i] J[n] =

(9.199)

i

wird um einen Vergessensfaktor λ mit 0 < λ ≤ 1 erweitert:  2 y[n − i] − y ˆ[n − i] · λi . J[n] =

(9.200)

i

Ein typischer Wert für den Vergessensfaktor ist λ = 0,95. Damit werden die Rekursionsbeziehungen (9.170) und (9.169) zu −1  (9.201) k[n] = P[n−1] · ϕ[n] λ + ϕT [n] · P[n−1] · ϕ[n] bzw. P[n] =

 1 P[n−1] − k[n] · ϕT [n] · P[n−1] . λ

(9.202)

Da λ < 1 gilt, sind die Elemente von k[n] größer als beim klassischen rekursiven Least-Squares-Schätzer. Dadurch wird die Schätzfehlerkovarianzmatrix P[n] groß gehalten, damit der Algorithmus Änderungen des Parametervektors a[n] folgen kann. 2. Zyklisches Zurücksetzen Die laufende Schätzung wird zyklisch nach einer festen Anzahl von Rekursionsˆa schritten beendet. Der im letzten Rekursionsschritt geschätzte Parametervektor a dient als Anfangswert für eine neue Rekursion: ˆ [0] = a ˆa . a

(9.203)

Dann wird die Schätzung mit dem Anfangswert für die Schätzfehlerkovarianzmatrix nach (9.179) P[0] = c · I

(9.204)

neu gestartet. Das Verfahren umgeht die Schwierigkeit, den Vergessensfaktor λ geeignet zu wählen.

448

9. Parameterschätzung

3. Berücksichtigung des aktuellen Schätzfehlers Das „Einschlafen“ des rekursiven Least-Squares-Schätzers aufgrund der Konsistenzeigenschaft hat bei zeitvarianten Parametern einen steigenden Schätzfehler zur Folge. Addiert man den mit einem hohen Faktor c gewichteten quadratischen Schätzfehler  2 2 ˆ [n − 1] (9.205) (y[n] − y ˆ[n]) = y[n] − ϕT [n] · a in der Rekursionsbeziehung (9.169) für P[n], so wird die Diagonale der Schätzfehlerkovarianzmatrix nicht unter dieses Niveau absinken:  2 ˆ [n − 1] I . (9.206) P[n] = P[n − 1] − k[n] ϕT [n] P[n − 1] + c y[n] − ϕT [n] a Ein geeigneter Wert für c ist beispielsweise c = 103 . Durch den additiven Term wird die Kondition von P[n] verbessert. Ferner kann das Verfahren mit einem Vergessensfaktor λ kombiniert werden.

9.5 Bayes-Schätzung Beim Gauß-Markov-Schätzer wurde eine vom Parametervektor a unabhängige mittelwertfreie Störung e mit bekannter Kovarianzmatrix Cee angenommen; der Parametervektor a wurde anhand der Autokorrelationsmatrix Raa beschrieben. In beiden Fällen entspricht dies der Annahme von Normalverteilungen [1]. Im Gegensatz dazu erlaubt die Bayes-Schätzung die Berücksichtigung beliebiger Wahrscheinlichkeitsdichten für den Parametervektor a und die Störung e (Abschnitt 9.5.2). Bei unbekannter Statistik des Parametervektors a stellt der Maximum-Likelihood-Schätzer einen wichtigen Sonderfall der Bayes-Schätzung dar (Abschnitt 9.5.3). Wählt man geeignete Verteilungen für den Parametervektor a und die Störung e und legt ein lineares Signalmodell zugrunde, so erhält man die aus den Abschnitten 9.2 und 9.3 bekannten Schätzer als weitere Sonderfälle der Bayes-Schätzung. Zuerst soll jedoch kurz auf die existierenden Deutungen des Wahrscheinlichkeitsbegriffs eingegangen werden, da sich aus diesen Interpretationen heraus verschiedene Vorgehensweisen im Kontext der Parameterschätzung ergeben (Abschnitt 9.5.1).

9.5.1 Wahrscheinlichkeit Das Wahrscheinlichkeitsmaß ist entsprechend der Definition 4.1 (vgl. S. 110) axiomatisch definiert; die entsprechenden Kolmogorov-Axiome (4.1)–(4.3) verraten jedoch nichts über die eigentliche Bedeutung des Wahrscheinlichkeitsbegriffs. In der Statistik-Literatur haben sich zwei Denklager etabliert, in welchen dieser Begriff unterschiedlich gedeutet wird: die klassische Statistik und die Bayes’sche Statistik [1, 2]. Tabelle 9.2 zeigt eine Gegenüberstellung beider Denklager aus der Sicht der Parameterschätzung.

9.5

Bayes-Schätzung

449

Tabelle 9.2. Gegenüberstellung von klassischer und Bayes’scher Statistik (nach [1]).

Klassische Statistik

Bayes’sche Statistik

Wahrscheinlichkeitsdeutung

relative Häufigkeit

Grad des Dafürhaltens

Parametervektor

a: deterministisch

a: zufällig

Messungen

y: zufällig

y: zufällig

Beschreibung von

a → y

a und a → y

Qualität der Aussagen

pre-experimentell, lokal → abhängig vom unbekannten wahren Wert des Parametervektors a

pre-/post-experimentell, global (gemittelt über A) → unabhängig vom „wahren Wert“ des Parametervektors a

Theorie

kompliziert wegen asymmetrischer Behandlung von a und y

übersichtlich, intuitiv einsichtig

Klassische Statistik In der klassischen Statistik werden Wahrscheinlichkeiten als relative Häufigkeiten interpretiert. Zufallsgrößen entstehen erst durch Wiederholung eines Zufallsexperimentes. Entsprechend werden in der klassischen Statistik die Messungen y als zufällig angesehen; der zu schätzende Parametervektor a wird dagegen als deterministisch erachtet. Der Einsatz der Wahrscheinlichkeitsrechnung ist alleine auf das „Messverfahren“ a → y beschränkt. Mathematisch wird dieses Messverfahren mittels der bedingten Wahrscheinlichkeitsdichtefunktion fy|a (y|a) beschrieben, die im Folgenden als Likelihood-Funktion bezeichnet wird. Offensichtlich werden in der klassischen Statistik der Parametervektor a und die Messungen y unsymmetrisch behandelt. Insbesondere lassen sich auf den Parametervektor a keine Wahrscheinlichkeitsaussagen – etwa in Form einer Autokorrelationsmatrix Raa – beziehen. Ein im Kontext der klassischen Statistik weitverbreitetes Schätzverfahren, um einen Rückschluss von y auf den Parametervektor a vorzunehmen, ist das auf der Likelihood-Funktion basierende Maximum-Likelihood-Verfahren (Abschnitt 9.5.3). An dieser Stelle sei jedoch angemerkt, dass die Likelihood-Funktion fy|a (y|a) eine Funktion von y ist und damit keine Wahrscheinlichkeitsaussage über a erlaubt. Bayes’sche Statistik Im Gegensatz zur klassischen Statistik werden in der Bayes’schen Statistik Wahrscheinlichkeiten als Grad des Dafürhaltens (engl. degree of belief ) interpretiert. Wahrscheinlichkeitsverteilungen verkörpern demnach den Grad der Ungewissheit oder den Wissensstand bzgl. der betrachteten Größen. Dabei ist im Kontext der Bayes‘schen Statistik die klassische Interpretation von Wahrscheinlichkeiten als relative

450

9. Parameterschätzung

Häufigkeiten ebenfalls zulässig, da es sich hierbei lediglich um eine spezielle Ausprägung von Wissen handelt. Zur Nutzung des vorhandenen Wissens muss dieses in geeigneter Weise in eine Wahrscheinlichkeitsverteilung überführt werden. Da in der Bayes’schen Statistik sowohl der Parametervektor a als auch die Messungen y als zufällig betrachtet werden, lassen sich beide symmetrisch mittels der Verbundwahrscheinlichkeitsdichtefunktion fay (a, y) behandeln: fay (a, y) = fa|y (a|y) · fy (y) = fy|a (y|a) · fa (a) .

(9.207)

Die rechte Seite dieser Gleichung entspricht dem Bayes-Theorem (4.22), welches freilich auch in der klassischen Statistik gültig ist. Dabei bezeichnen fa (a) die A-prioriDichte, fy|a (y|a) die Likelihood-Funktion und fa|y (a|y) die A-posteriori-Dichte [7]. Erst durch die spezielle Interessenslage im Kontext der Parameterschätzung entsteht eine Asymmetrie: Der Parametervektor a ist, anders als die Messungen y, nicht beobachtbar, aber ihm gilt das eigentliche Interesse. Um den Parametervektor a zu ermitteln, werden in der Bayes’schen Statistik die Hilfsgrößen (also die Messungen y) herausintegriert. Für eine konkrete Messung y = y erhält man: " " " y=y fay (a,η) dη = fa|y (a|η) fy (η) dη −→ fa|y (a|η) δ(η−y) dη = fa|y (a|y) . (9.208)

  Y

Y

Y

fy (η)

Das Ergebnis ist die A-posteriori-Dichte fa|y (a|y) =

fy|a (y|a) · fa (a) , fy (y)

(9.209)

auf welche die Bayes‘sche Statistik ihre Aussagen stützt. Im Gegensatz zur Likelihood-Funktion ist die A-posteriori-Dichte eine echte Wahrscheinlichkeitsdichtefunktion bzgl. des Parametervektors a.

9.5.2 Bayes’sche Parameterschätzung In diesem Abschnitt werden die zwei wichtigsten Techniken zur Bayes’schen Parameterschätzung vorgestellt. In beiden Fällen soll aus den gestörten Messwerten y der Parametervektor a geschätzt werden. Ausgangspunkt ist dabei die Verbundwahrscheinlichkeitsdichte fay (a, y) der Parameter und Messungen, die als bekannt vorausgesetzt wird. Wie beim Gauß-Markov-Schätzer in (9.125) gilt es auch hier, den ˆ − a zu minimieren. Allerdings wird zur Gewichtung der Schätzfehler Schätzfehler a eine nichtnegative, konvexe Kostenfunktion C(ˆ a − a) ≥ 0

(9.210)

eingeführt; die Wahl dieser Kostenfunktion wird sich auf den resultierenden Schätzer auswirken. Da die Kostenfunktion zufällig ist, muss ihr Erwartungswert minimiert

9.5

Bayes-Schätzung

werden:

451

" "

Eay {C(ˆ a − a)} =

C(ˆ a − a) fay (a, y) da dy



min .

(9.211)

Y A

Nach dem Satz von Bayes (9.207) ist die Verbundwahrscheinlichkeitsdichte fay (a, y) gleich der bedingten Wahrscheinlichkeitsdichte fa|y (a|y) multipliziert mit der Wahrscheinlichkeitsdichte fy (y) für die Vorbedingung. Damit lässt sich die Minimierungsaufgabe (9.211) wie folgt umformulieren: ⎛ ⎞ " " a − a)} = ⎝ C(ˆ a − a) fa|y (a|y) da⎠ fy (y) dy → min . (9.212) Eay {C(ˆ Y

A

Wegen C(ˆ a − a) ≥ 0 und fa|y (a|y) ≥ 0 ist das innere Integral nichtnegativ. Es reicht daher, anstelle des gesamten Integrals lediglich das innere zu minimieren. Das Gütekriterium minimiert damit den Erwartungswert der Kostenfunktion bezüglich der Aposteriori-Dichte " a − a) · fa|y (a|y) da = Ea|y {C(ˆ a − a)} → min . (9.213) Q(y) = C(ˆ A

Damit gilt es in der Bayes’schen Parameterschätzung, den A-posteriori-Erwartungswert der Kostenfunktion zu minimieren. Im Folgenden werden dafür zwei verschiedene Ansätze behandelt.

Ansatz 1: Minimaler quadratischer Schätzfehler Zur Minimierung des quadratischen Schätzfehlers wird die quadratische Kostenfunktion a − a) C(ˆ a − a) = (ˆ a − a)T (ˆ

(9.214)

gewählt. Einsetzen dieser Kostenfunktion in das Gütekriterium (9.213) ergibt: " a − a)T (ˆ a − a) · fa|y (a|y) da (9.215) Q(y) = (ˆ A

=

" K−1  (ˆ ak (y) − ak )2 fa|y (a|y) da → min .

A

(9.216)

k=0

Die notwendige Bedingung für ein Minimum erhält man durch Differentiation von Q(y) nach den zu schätzenden Parametern a ˆk (y): " ∂Q(y) ! = 2 (ˆ ak (y) − ak ) fa|y (a|y) da = 0 , k = 0, . . . , K − 1. (9.217) ∂ˆ ak (y) A

452

9. Parameterschätzung

Die Bedingung ist hinreichend, falls die zweite Ableitung positiv ist. Aufgrund des Normierungsaxioms (4.1) ist dies stets erfüllt. Auflösen nach a ˆk (y) ergibt: " (9.218) a ˆk (y) = ak fa|y (a|y) da . A

Damit erhält man in Vektorschreibweise für den Schätzer mit minimalem mittleren quadratischen Fehler den A-posteriori-Erwartungswert von a: " ˆ (y) = a fa|y (a|y) da = Ea|y {a} . a (9.219) A

Ansatz 2: Konstante Gewichtung großer Fehler Durch die Wahl der folgenden Kostenfunktion werden Fehler mit Beträgen kleiner als Δ (mit Δ > 0) ignoriert: 0 für ˆ a − a < Δ , C(ˆ a − a) = (9.220) 1 sonst . Einsetzen der Kostenfunktion in das Gütekriterium (9.213) ergibt: " a − a) · fa|y (a|y) da Q(y) = C(ˆ A

(9.221)

"

=

(9.222)

fa|y (a|y) da {a:ˆ a−a≥Δ}

"

=1−

fa|y (a|y) da



min .

(9.223)

{a:ˆ a−a 0 betrachtet. Die Varianz ist also nicht konstant, sondern für c · a  ε näherungsweise proportional zum Parameter a, wie es in der messtechnischen Praxis oft der Fall ist. Die resultierende Likelihood-Funktion ist in Abbildung 9.11 dargestellt. Für eine feste Messung yi entspricht die Likelihood-Funktion der bedingten Wahrscheinlichkeitsdichtefunktion fy|a (yi |a), bei welcher der Parameter a als Variable interpretiert wird. Aus diesem Grund ist die Likelihood-Funktion keine echte Wahrscheinlichkeitsdichtefunktion bzgl. a und erfüllt i. Allg. das Normierungsaxiom (4.1) nicht. Da die Varianz σe2 der Störung e eine Funktion des zu schätzenden Parameters a ist, ergibt sich im vorliegenden Fall eine asymmetrische Likelihood-Funktion fy|a (yi |a). Für einen festen Parameterwert a werden n = 3 unabhängige Messwerte y1 = 1,4, y2 = 1,7 und y3 = 2,0 gewonnen. Die zugehörigen Likelihood-Funktionen sind in den Abbildungen 9.11 und 9.12 dargestellt. Die Fusion der drei Messungen erfolgt bei stochastischer Unabhängigkeit durch Bildung des Produkts der einzelnen Likelihood-Funktionen: fy1 ,y2 ,y3 |a (y1 , y2 , y3 |a) =

n . i=1

fy|a (yi |a) ;

(9.248)

458

9. Parameterschätzung

Abbildung 9.11. Beschreibung des Messverfahrens mit der Likelihood-Funktion.

Abbildung 9.12. Bayes-Schätzung durch Fusion von Likelihood-Funktionen.

siehe Abb. 9.12. Die Lage des Maximums dieser Funktion entspricht dem Maximum-Likelihood-Schätzwert und beträgt im vorliegenden Fall a ˆA = 1,6. Dieser Wert ist identisch mit dem Maximum-a-posteriori-Schätzwert bei vagem Vorwissen über den zu schätzenden Parameter. Bei Verwendung des in der Messtechnik

9.6

Literatur

459

bevorzugten A-posteriori-Erwartungswerts erhält man den Schätzwert a ˆB = 1,72. Man beachte, dass beide Schätzwerte vom Ergebnis a ˆC = 1,7 der einfachen Mittelwertschätzung (Abschnitt 9.2.1) abweichen, bei welcher die Statistik der Störung e vernachlässigt wird.

9.6 Literatur [1] J. Beyerer. Verfahren zur quantitativen statistischen Bewertung von Zusatzwissen in der Meßtechnik. VDI Verlag, Düsseldorf, 1999. [2] J. Beyerer, M. Richter und M. Nagel. Pattern recognition: introduction, features, classifiers and principles. De Gruyter, Berlin, Boston, 2018. [3] Deutsches Institut für Normung. Grundlagen der Messtechnik – Teil 1: Grundbegriffe. DIN 1319-1, 1995. [4] H. V. Henderson und S. R. Searle. On deriving the inverse of a sum of matrices. SIAM Review, 23:53–60, January 1981. [5] U. Kiencke, M. Schwarz und T. Weickert. Signalverarbeitung – Zeit-Frequenz-Analyse und Schätzverfahren. Oldenbourg Verlag, München, 2008. [6] F. Puente León und H. Jäkel. Signale und Systeme. De Gruyter Oldenbourg, Berlin, 7. Auflage, 2019. [7] Schürmann, J. Pattern classification: A unified view of statistical and neural approaches. John Wiley & Sons, New York, 1996.

Anhang A Symbole und Tabellen

A

A

A

Symbole und Tabellen

A.1 Symbolverzeichnis . . . . . . A.1.1 Konventionen . . . . A.1.2 Operatoren . . . . . . A.1.3 Lateinische Symbole A.1.4 Griechische Symbole

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

463 463 463 463 467

A.2 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468

A Symbole und Tabellen A.1 Symbolverzeichnis Die Auflistung der Symbole spiegelt die Verwendung in diesem Buch wider. Dabei wurde die internationale Schreibweise beachtet. Es muss jedoch darauf hingewiesen werden, dass sich in anderen Quellen die Schreibweise unterscheiden kann.

A.1.1 Konventionen a, b, . . . x, y, X, Y, . . . x, y, . . . A, B, . . . A, B, . . . a, b, . . . x(t), y(t), . . . x(t), y(t), . . .

Konstante, Bezeichner skalare Variable (kursiv, Kleinbuchstaben, gelegentlich Großbuchstaben) Vektoren (fett, Kleinbuchstaben) Matrizen (fett, Großbuchstaben) Mengen (kalligrafisch, Großbuchstaben) Zufallsvariable (Schreibmaschinenschrift) Zeitsignale stochastische Prozesse (Schreibmaschinenschrift)

A.1.2 Operatoren Δ E{ · } { · } L{x(t)} F{x(t)} Q{ · } { · } S{ · } T{ · } Z{xn }

Differenzenoperator Erwartungswertoperator Imaginärteil einer komplexen Zahl Laplace-Transformierte der Funktion x(t) Fourier-Transformierte der Funktion x(t) Quantisierung Realteil einer komplexen Zahl System Nichtlineare Transformation z-Transformierte der Funktion xn

A.1.3 Lateinische Symbole a, a a 1 , a2 , . . . a A

Beschleunigung Koeffizienten Koeffizientenvektor, Parametervektor Fläche

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5

464

Symbole und Tabellen

B c C Cxx Cxy Cxx C d e e e(t), e(t) eq (t), eq (t) e1 , e2 , . . . E Ex E(s), E(f ) f f¯ fA f0 feff fg fx (x) Fx (x) F Fr FrA FrS FrE Fr,sup Fr,def g G(s), G(f ) h h H

Bandbreite eines Signals Federkonstante, Wärmekapazität Kapazität, Kondensator Autokovarianz Kreuzkovarianz Kovarianzmatrix des Zufallsvektors x Menge der komplexen Zahlen Durchmesser (Zufallsgröße) Euler’sche Zahl Einheitsvektor Fehlersignal allgemein Quantisierungsfehler Einheitsvektoren Energie Energie des Signals x(t) Fehlersignal im Frequenzbereich Frequenz mittlere Frequenz Abtastfrequenz Zählfrequenz Effektivfrequenz Grenzfrequenz Wahrscheinlichkeitsdichte von x Wahrscheinlichkeitsverteilung von x absoluter Fehler, Kraft relativer Fehler, relativer Kennlinienfehler bezogen auf die Anzeigespanne relativer Kennlinienfehler bezogen auf den Anzeigebereich relativer Kennlinienfehler bezogen auf den Sollwert relativer Kennlinienfehler bezogen auf den Endwert relativer superponierender Fehler (additiv) relativer deformierender Fehler (multiplikativ) Erdbeschleunigung Übertragungsfunktion Hysterese Höhe (Zufallsgröße) Hurwitz-Determinante

A.1

Symbolverzeichnis

i i(u) I(f ) j K, K  i (u) m, m n n(t) nq N N p pi P (x ≤ x) Px q Q r, r rT (t) rxx (τ ) rxy (τ ) E rxy (τ ) R Rq (f ) IR s s(u) sxx (t) s2x S Si Sxx (f ) See (f ) Snn (f )

Stromstärke Impulsantwort eines Interpolationsfilters Übertragungsfunktion eines Interpolationsfilters imaginäre Einheit Konstante Länge Lagrange-Polynom Masse Index der Abtastwerte, allgemeiner Zahlenindex, Drehzahl stochastisches Signal, Rauschen quantisiertes Zählergebnis allgemeiner Zahlenindex ∈ N Menge der natürlichen Zahlen Druck Wahrscheinlichkeit, dass xi ≤ x < xi+1 Wahrscheinlichkeit für x ≤ x Leistung des Signals x(t) Quantisierungsstufe Gütekriterium allgemein Radius Rechteckfenster der Breite T Autokorrelationsfunktion Kreuzkorrelationsfunktion Korrelation für Energiesignale elektrischer Widerstand Fourier-Transformierte der gleichverteilten Wahrscheinlichkeitsdichte Menge der reellen Zahlen komplexe Frequenz s = σ + jω im Laplace-Bereich Spline Energiedichte im Zeitbereich Stichprobenvarianz Empfindlichkeit (engl. sensitivity) Empfindlichkeit, ideal, linear Energie- bzw. Leistungsdichtespektrum Leistungsdichtespektrum eines allgemeinen Fehlersignals Leistungsdichtespektrum eines Rauschsignals

465

466

Symbole und Tabellen

t tA T Ti Tm Tref u u(t) uq (t) u0 ua ue uref U v, v V V x x x ¯ x ˆ x ˆ y y y(t) y∗ (t) yn , y(nT ) ya ye yi yw Y (f ) Y∗ (f ) z z0 z

Zeit, Zeitpunkte Abtastzeit Periodendauer, Temperatur Integrationszeitkonstante Periodendauer zwischen zwei Zahnflanken bei Periodendauermessung Referenzperiode bei Frequenzmessung Messgröße, elektrische Spannung Eingangssignal, Messgröße quantisiertes Signal Arbeitspunkt Messanfang Messende Referenzspannung elektrische Spannung Geschwindigkeit Verstärkungsfaktor Vandermonde-Matrix Umkehrspanne Zustandsvektor zeitlicher Mittelwert Schätzwert allgemein Stichprobenmittelwert Messwert Messwertvektor Ausgangssignal, kontinuierliches Zeitsignal abgetastetes Signal zeitdiskretes Signal angezeigter Wert, Anzeigeanfang Anzeigeende Sollwert, Ausgangswert wahrer Wert Spektrum allgemein, Frequenzgang Spektrum eines zeitdiskreten Signals Störgrößenvektor feste Störgröße bei Normalbedingungen komplexe Variable im z-Bereich

A.1

Symbolverzeichnis

Z Z Z

Zählerstand, digitaler Zahlenwert Anzahl der Zähne eines Zahnrades Menge der ganzen Zahlen

A.1.4 Griechische Symbole α β δ δij δ(t) Δf Δy Δϕ ζ(t) θ ϑ κ λ Λ(x) μ ρ ρxy XY (ϑ) σ(t) σx2 τ φ, ϕ ϕ0 ϕi (u), ϕj (u) Φ(f ) Φ χ2 ψ ω ωm (t) Ω(f )

Signifikanzniveau, Irrtumswahrscheinlichkeit Dämpfungskonstante Dämpfung eines PT2 -Gliedes Kronecker-Delta Dirac-Impuls Bandbreite eines Signals Abweichung vom wahren Wert/Arbeitspunkt Winkelfehler am Zahnrad Ereignisprozess Winkel Frequenzverschiebung Krümmung einer Kurve Ausfallrate, Übergangsrate Dreieckfunktion Mittelwert, Scharmittelwert Dichte (Zufallsgröße) Korrelationskoeffizient spektrale Korrelationsfunktion Sprungfunktion (Heaviside-Funktion) Varianz der Zufallsgröße x Zeitverschiebung Winkel allgemein Winkelinkrement bei Sensorzahnrad Basisfunktionen charakteristische Funktion Beobachtungsmatrix des linearen Signalmodells χ2 -verteilte Zufallsgröße Winkel Winkelgeschwindigkeit, Kreisfrequenz kontinuierliche Winkelgeschwindigkeit Fourier-Transformierte der Winkelgeschwindigkeit

467

468

Symbole und Tabellen

A.2 Tabellen Tabelle A.1. Naturkonstanten.

Naturkonstante Avogadro-Konstante Boltzmann-Konstante Elementarladung Elektrische Feldkonstante Faraday-Konstante Feinstrukturkonstante Gravitationskonstante Hyperfeinstrukturübergangsfrequenz des Grundzustands im 133 Cs-Atom Josephson-Konstante Kosmologische Konstante Lichtgeschwindigkeit im Vakuum Loschmidt-Konstante Magnetische Feldkonstante Magnetisches Flussquantum Photometrisches Strahlungs äquivalent Planck-Konstante Ruhemasse des Elektrons Ruhemasse des Neutrons Ruhemasse des Protons Rydberg-Konstante Stefan-Boltzmann-Konstante Universelle Gaskonstante Von-Klitzing-Konstante

Zeichen

Zahlenwert

Einheit

NA k e ε0 F α G ΔνCs

6,022 14076 · 1023 1,380 649 · 10−23 1,602 176 634 · 10−19 8,854 187 817 · 10−12 96 485,3365 7,297 352 5698 · 10−3 6,67384 · 10−11 9 192 631 770

mol−1 J K−1 As A s V−1 m−1 C mol−1

KJ Λ c0 NL μ0 Φ0 Kcd

4,835 97870 · 1014 2,076 504 · 10−43 299 792 458 2,686 7805 · 1025 12,566 370 614 · 10−7 2,067 833 758 · 10−15 683

Hz V−1 s kg−1 m−1 m s−1 m−3 N A−2 Wb lm W−1

h m0 mn mp R∞ σ R RK

6,626 07015 · 10−34 9,109 38291 · 10−31 1,674 927 351 · 10−27 1,672 621 777 · 10−27 10 973 731,568 539 5,670 373 · 10−8 8,314 4621 25 812,807 4434

Js kg kg kg m−1 W m−2 K−4 J mol−1 K−1 Ω

m3 kg−1 s−2 Hz

2

A.2

Tabellen

469

Tabelle A.2. Gauß’sche Fehlerfunktion erf(c) und statistische Sicherheit P (c) und Pn (c) bei bekannter bzw.

geschätzter Standardabweichung (Wahrscheinlichkeiten in Prozent).

c

erf(c)

P (c)

P2 (c)

P3 (c)

P4 (c)

P5 (c)

P10 (c)

P20 (c)

0,5

0,52050

38,2925

33,3333

34,8552

35,6670

36,1701

37,2106

37,7468

0,6

0,60386

45,1494

39,0567

40,9199

41,9159

42,5340

43,8145

44,4756

0,7

0,67780

51,6073

44,3607

46,5673

47,7500

48,4851

50,0112

50,8010

0,8

0,74210

57,6289

49,2366

51,7801

53,1473

53,9986

55,7700

56,6889

0,9

0,79691

63,1880

53,6895

56,5549

58,0994

59,0629

61,0721

62,1170

1,0

0,84270

68,2689

57,7350

60,8998

62,6099

63,6783

65,9107

67,0743

1,1

0,88021

72,8668

61,3960

64,8317

66,6916

67,8549

70,2893

71,5603

1,2

0,91031

76,9861

64,6997

68,3738

70,3649

71,6109

74,2204

75,5838

1,3

0,93401

80,6399

67,6753

71,5532

73,6548

74,9699

77,7234

79,1616

1,4

0,95229

83,8487

70,3526

74,3993

76,5899

77,9596

80,8235

82,3165

1,5

0,96611

86,6386

72,7607

76,9416

79,2000

80,6096

83,5493

85,0764

1,6

0,97635

89,0401

74,9269

79,2095

81,5151

82,9505

85,9318

87,4723

1,7

0,98379

91,0869

76,8767

81,2309

83,5645

85,0123

88,0031

89,5369

1,8

0,98909

92,8139

78,6334

83,0320

85,3762

86,8242

89,7948

91,3035

1,9

0,99279

94,2567

80,2181

84,6368

86,9761

88,4137

91,3378

92,8052

2,0

0,99532

95,4500

81,6497

86,0674

88,3883

89,8061

92,6612

94,0734

2,1

0,99702

96,4271

82,9450

87,3435

89,6347

91,0247

93,7923

95,1382

2,2

0,99814

97,2193

84,1191

88,4828

90,7347

92,0906

94,7559

96,0271

2,3

0,99886

97,8552

85,1852

89,5012

91,7061

93,0228

95,5746

96,7653

2,4

0,99931

98,3605

86,1550

90,4126

92,5644

93,8379

96,2684

97,3751

2,5

0,99959

98,7581

87,0388

91,2293

93,3233

94,5510

96,8553

97,8766

2,6

0,99976

99,0678

87,8459

91,9624

93,9952

95,1751

97,3509

98,2873

2,7

0,99987

99,3066

88,5841

92,6214

94,5906

95,7216

97,7687

98,6222

2,8

0,99992

99,4890

89,2607

93,2147

95,1188

96,2006

98,1205

98,8943

2,9

0,99996

99,6268

89,8820

93,7498

95,5882

96,6209

98,4166

99,1146

3,0

0,99998

99,7300

90,4534

94,2331

96,0058

96,9901

98,6656

99,2924

3,1

0,99999

99,8065

90,9799

94,6704

96,3779

97,3147

98,8749

99,4355

3,2

0,99999

99,8626

91,4659

95,0668

96,7099

97,6005

99,0508

99,5504

3,3

1,00000

99,9033

91,9152

95,4267

97,0067

97,8524

99,1987

99,6424

3,4

1,00000

99,9326

92,3313

95,7539

97,2723

98,0749

99,3229

99,7159

3,5

1,00000

99,9535

92,7173

96,0519

97,5104

98,2716

99,4273

99,7745

471

Index A A-posteriori-Dichte . . . . . . . . . . . . . . . . . . . . . . 450 Abgleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Abschirmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 Absolutdruckmesser . . . . . . . . . . . . . . . . . . . . . . 89 absoluter Fehler . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Absolutwinkelgeber . . . . . . . . . . . . . . . . . . . . . . 414 abstandscodierte Scheibe . . . . . . . . . . . . . . . . . 414 Abtastfrequenz . . . . . . . . . . . . . . . . . . . . . . 316, 318 Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . 316, 317 Abtastung . . . . . . . . . . . . . . . . . . . . . . 302, 315, 316 ~ bei Drehzahlmessung . . . . . . . . . . . . . . . 392 winkelsynchrone ~ . . . . . . . . . . . . . . . . . . . . 385 zeitsynchrone ~ . . . . . . . . . . . . . . . . . . . . . . . 387 Addition unabhängiger Zufallsvariabler . . 127 Additivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . 317, 318, 321 Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 Alternativhypothese . . . . . . . . . . . . . . . . . . . . . 156 AM . . . . . . . . . . . . siehe Amplitudenmodulation Ampere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7, 10 amplitudenanaloges Signal . . . . . . . . . . . 16, 377 Amplitudenbereich . . . . . . . . . . . . . . . . . . . . . . 110 Amplitudendichte . . . . . . . . . . . . . . . . . . . . . . . 334 ~ der Fourier-Reihe . . . . . . . . . . . . . . . . . . . 335 ~ der harmonischen Schwingung . . . . . . 334 Amplitudengang . . . . . . . . . . . . . . . . . . . . . . . . . 189 konstanter ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Amplitudenmodulation . . . . . . . . . . . . . . . . . . . 16 Analog-Digital-Umsetzer . . . . . . . . . . . . 316, 353 ~ mit sukzessiver Approximation . . . . . 354 Delta-Sigma-Umsetzer . . . . . . . . . . . . . . . . 358 dual slope converter . . . . . . . . . . . . . . . . . . . 356 integrierender ~ . . . . . . . . . . . . . . . . . . . . . . . 356 Nachlaufumsetzer . . . . . . . . . . . . . . . . . . . . . 353 verzögert nachlaufender ~ . . . . . . . . . . . . . 353 Zweirampen-A/D-Umsetzer . . . . . . . . . . 356 Anpassungstest . . . . . . . . . . . . . . . . . . . . . . 150, 159 Anti-Aliasing-Filter . . . . . . . . . . . . . . . . . . . . . . 321 Anzeigeanfang . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Anzeigebereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Anzeigeende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Anzeigespanne

ideale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Anzeigewert idealer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 aperiodische Einstellung . . . . . . . . . . . . . . . . . 186 aperiodischer Grenzfall . . . . . . . . . . . . . . . . . . 183 Approximation . . . . . . . . . . . . . . . . . . . . . . . . 27, 28 Approximationsfehlerquadrate . . . . . . . . 28, 33 Aufnehmer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Ausfallrate . . . . . . . . . . . . . . . . . . . . . . . . . . 165, 166 Ausfallwahrscheinlichkeit . . . . . . . . . . . . . . . . 166 Ausgangsgleichung . . . . . . . . . . . . . . . . . . . . . . . 13 Ausgangsgröße . . . . . . . . . . . . . . . . . . . . . . . . 13, 14 Ausschussrate. . . . . . . . . . . . . . . . . . . . . . . . . . . .164 äußere Störgrößen . . . . . . . . . . . . . . . . . . . . . . . . . 20 Autokorrelationsfunktion . . . . . . . . . . . . 247, 248 ~ einer PRBS-Folge . . . . . . . . . . . . . . . . . . . . 286 ~ eines ergodischen Prozesses . . . . . . . . . 253 ~ von weißem Rauschen . . . . . . . . . . . . . . . 283 Autokorrelationsmatrix . . . . . . . . . . . . . . . . . . 437 Autokovarianzfunktion . . . . . . . . . . . . . . 247, 248 ~ eines ergodischen Prozesses . . . . . . . . . 253 Autoleistungsdichtespektrum . . . . . . . . . . . . 279

B Bandbreite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 Basis orthonormale ~ . . . . . . . . . . . . . . . . . . . . . . . . . 29 Basiseinheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Basisgröße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Basisvektor . . . . . . . . . . . . . . . . . . . . . . . . . . 421, 423 Bauelemente-Qualität . . . . . . . . . . . . . . . . . . . . 165 Bauelementestunden . . . . . . . . . . . . . . . . . . . . . 166 Bayes’sche Statistik . . . . . . . . . . . . . . . . . . . . . . . 448 Bayes-Theorem . . . . . . . . . . . . . . . . . 116, 450, 451 Beobachtungsfehler . . . . . . . . . . . . . . . . . . . . . . . 20 Beobachtungsmatrix . . . . . . . . . . . . . . . . . 421, 422 Bernoulli’sches Gesetz der großen Zahlen 135 Bernoulli-Verteilung . . . . . . . . . . . . . . . . . . . . . . 139 Beschleunigungssensor . . . . . . . . . . . . . . . . . . . . 79 Beschleunigungstreue . . . . . . . . . . . . . . . 198, 214 Beschreibungsfunktion . . . . . . . . . . . . . . . . . . . 190 Bessel’sche Ungleichung . . . . . . . . . . . . . . . . . . 30 bezogene Schätzfehlerkovarianzmatrix . . . 441

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 F. Puente León, Messtechnik, https://doi.org/10.1007/978-3-662-59767-5

472

Bienaymé-Gleichung . . . . . . . . . . . . . . . . . . . . . 123 Bildrestauration . . . . . . . . . . . . . . . . . . . . . . . . . . 309 bilineare Interpolation . . . . . . . . . . . . . . . . . . . . . 49 binäre Impulsfolge . . . . . . . . . . . . . . . . . . . . . . . 358 Binärfolge pseudostochastische ~ . . . siehe PRBS-Folge Binomialverteilung. . . . . . . . . . . . . . 140, 160, 166 BLUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439 Bode-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . 189 Brückenschaltung . . . . . . . . . . . . . . . . . . . . . . . . . 68 Butterworth-Filter . . . . . . . . . . . . . . . . . . . . . . . . 202

C Candela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 charakteristische Funktion . . . . . . . . . . . . . . . 127 ~ quantisierter Signale. . . . . . . . . . . . . . . . .339 Chi-Quadrat-Anpassungstest . . . . . . . . . . . . . 159 Chi-Quadrat-Verteilung . . . . . . . . . . . . . 145, 146 Closed-loop-Korrelation . . . . . . . . . . . . . . . . . . 272

D Dämpfung . . . . . . . . . . . . . . . . . . . . . . 183, 194, 221 deformierende Störgröße . . . . . . . . . . . . . . . 86, 89 Dehnungsmessstreifen . . . . . . . . . . . . . . . . . . . . 66 Dekade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 Delta-Sigma-Modulator . . . . . . . . . . . . . . . . . . 358 Delta-Sigma-Umsetzer . . . . . . . . . . . . . . . . . . . 358 Digitalfilter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 Modulator . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 Rauschformung . . . . . . . . . . . . . . . . . . . . . . . 361 stationäres Verhalten . . . . . . . . . . . . . . . . . . 364 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 deterministisches Signal . . . . . . . . . . . . . . . . . . 110 Dichte . . . . . . . . siehe Wahrscheinlichkeitsdichte Differentialgleichung lineare ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Differenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 erste ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 zweite ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Differenzenoperator . . . . . . . . . . . . . . . . . . . . . . . 40 Differenzenschema . . . . . . . . . . . . . . . . . . . . . . . . 42 Differenzmethode . . . . . . . . . . . . . . . . . . . . . . . . . 76 Digital-Analog-Umsetzer . . . . . . . . . . . . 316, 367 ~ mit R/2R-Kettenleiternetzwerk . . . . . 368 ~ mit dyadisch gestuften Widerständen . . . . . . . . . . . . . . . . . . . . . . . . 367

Index

parallele ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 serielle ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 digitale Messdatenerfassung . . . . . . . . . . . . . 315 digitales Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Digitalfilter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 direktes Messverfahren . . . . . . . . . . . . . . . . . . . . 11 Dithering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 DMS . . . . . . . . . . . . siehe Dehnungsmessstreifen dominante Pole . . . . . . . . . . . . . . . . . . . . . . . . . . 223 Doppler-Effekt . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 Dopplerfrequenzmessung . . . . . . . . . . . . . . . . 274 Drehrichtungserkennung . . . . . . . . . . . . . . . . . 411 Drehzahlmessung . . . . . . . . . . . . . . . . . . . . . . . . 384 Dreieckfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Druck-Messumformer . . . . . . . . . . . . . . . . . . . . . 84 dual-slope converter . . . . . . . . . . . . . . . . . . . . . 356 Dualcode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 Durchflussmessung Wirkdruckverfahren zur ~ . . . . . . . . . . . . . . 85 dynamische Fehler . . . . . . . . . . . . . . . . . . . . . . . . 20

E Effektivfrequenz . . . . . . . . . . . . . . . . . . . . . 380, 383 Effektivwert . . . . . . . . . . . . . . . . . . . . 336, 345, 384 Effizienz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130, 131 Eichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Eigenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Eigenwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Eingangsgröße . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Einheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Einheitensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 kohärentes ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Einheitsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 Einstichproben-Gauß-Test . . . . . . . . . . . . . . . . 158 Einstichproben-t-Test . . . . . . . . . . . . . . . . . . . . . 158 Elementarereignis . . . . . . . . . . . . . . . . . . . 111, 241 Elle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Ellipsoid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Empfindlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 ideale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 mittlere ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Empfindlichkeitsdifferenz . . . . . . . . . . . . . . . . . 62 empirisches relationales System . . . . . . . . . . . . 3 Endwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256, 261

Index

Energiedichte ~ im Frequenzbereich . . . . . . . . . . . . . . . . . 262 ~ im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . 262 Energiedichtespektrum . . . . . . . . . . . . . . 281, 289 Energiesignal . . . . . . . . . . . . . . . . . . . . . . . . 256, 289 Innenprodukt zweier ~e . . . . . . . . . . . . . . . 258 Norm eines ~s . . . . . . . . . . . . . . . . . . . . . . . . . 258 Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Ereignisprozess . . . . . . . . . . . . . . . . . . . . . . . . . . 380 Ergebnismenge ~ eines Zufallsexperimentes . . . . . . . . . . . 110 Ergodizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 schwache ~. . . . . . . . . . . . . . . . . . . . . . . . . . . .252 strenge ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 ERS . . . . siehe empirisches relationales System erste Differenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Erwartungstreue. . . . . . . . . . . . . . . . . . . . .130, 426 asymptotische ~ . . . . . . . . . . . . . . . . . . . . . . . 130 Erwartungswert . . . . . . . . . . . . . . . . 119, 246, 438 ~ quantisierter Signale. . . . . . . . . . . . . . . . .340 ~ der Bernoulli-Verteilung . . . . . . . . . . . . . 139 ~ der Binomialverteilung . . . . . . . . . . . . . . 140 ~ der Poisson-Verteilung . . . . . . . . . . . . . . 141 ~ des Quantisierungsrauschens . . . . . . . . 343 ~ quantisierter Signale. . . . . . . . . . . . . . . . .340 Extrapolation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33 Exzess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121, 134

F Falschalarm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 Faltung ~ mit Rechteckfenster . . . . . . . . . . . . . . . . . 324 farbiges Rauschen . . . . . . . . . . . . . . . . . . . 284, 437 Feder-Masse-Dämpfer-System . . . . . . . . 79, 194 Fehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 ~ 1. Art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 ~ 2. Art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 absoluter ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Aliasing-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 dynamische ~ . . . . . . . . . . . . . . . . . . . . . . . . . 185 Jitter-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326 Quantisierungs-~ . . . . . . . . . . . . . . . . . . . . . . 331 relativer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 systematischer ~ . . . . . . . . . . . . . . 19, 109, 130 Winkel-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 zufälliger ~ . . . . . . . . . . . . . . . . . . . . . . . . 19, 109

473

Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . 174 Fehlerfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Fehlergrenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Fehlerquadrate Minimierung der ~ . . . . . . . . . . . . . . . . . . . . . 28 Fehlerursachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Fehlervektor . . . . . . . . . . . . . . . . . . . . . . . . . 420, 437 Fensterfunktion . . . . . . . . . . . . . . . . . . . . . 256, 262 Filter FIR-~. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .363 MA-~ . . . . . . . . . . . . . . . . . . . . . . . . 170, 324, 363 Optimal-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Wiener-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 Filter-Optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 Filterbank-Methode . . . . . . . . . . . . . . . . . . . . . . 430 FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 Fixpunktjustierung . . . . . . . . . . . . . . . . . . . . . . . . 57 Flächenabtastung . . . . . . . . . . . . . . . . . . . . 338, 395 FM . . . . . . . . . . . . . . . . siehe Frequenzmodulation Folgefrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 Fourier-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Frühausfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Frequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 ~ eines harmonischen Signals . . . . . . . . . 377 ~ eines impulsförmigen Signals. . . . . . . .377 ~ eines stochastischen Signals . . . . . . . . . 378 Effektiv-~ . . . . . . . . . . . . . . . . . . . . . . . . . 380, 384 Folge-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 Kreis-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 mittlere ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 Momentan-~ . . . . . . . . . . . . . . . . . . . . . . . . . . 377 frequenzanaloges Signal . . . . . . . . . . . . . . 17, 377 Frequenzbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . 378 Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 Frequenzgangmessung . . . . . . . . . . . . . . . . . . . 188 Frequenzmessung . . . . . . . . . . . . . . . . . . . 386, 405 relativer Quantisierungsfehler der ~ . . . 388 Frequenzmodulation . . . . . . . . . . . . . . . . . . . . . . 17 Frequenzregelkreis . . . . . . . . . . . . . . . . . . . . . . . 409 Frequenzvergleicher . . . . . . . . . . . . . . . . . . . . . 409 Frequenzverschiebung . . . . . . . . . . . . . . . . . . . 276 Fühler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Funktionenraum . . . . . . . . . . . . . . . . . . . . . . . . . 258 unitärer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 Funktionensystem orthonormales ~ . . . . . . . . . . . . . . . . . . . . . . . . 28

474

G Gammafunktion . . . . . . . . . . . . . . . . . . . . . . . . . 146 Gauß’sche Fehlerfunktion . . . . . . . . . . . . . . . . 152 Gauß’sches Fehlerfortpflanzungsgesetz . . 156, 174, 176 Gauß-Markov-Schätzer . . . . . . . . . 437, 439, 454 Gauß-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Gegenkopplung . . . . . . . . . . . . . . 82, 92, 193, 227 Geschwindigkeitstreue . . . . . . . . . . . . . . 198, 214 Gesetz der großen Zahlen . . . . . . . . . . . . 135, 137 gleitender Mittelwert . . . . . . . . . . . . 170, 254, 324 Grad des Dafürhaltens . . . . . . . . . . . . . . . . . . . 449 Gray-Code . . . . . . . . . . . . . . . . . . . . . . . . . . 413, 414 Gütemaß . . . 28, 71, 210, 212, 213, 216, 220–222

H Häufigkeitsverteilung . . . . . . . . . . . . . . . . . . . . 128 Hauptachse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Histogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 höchstwertiges Bit. . . . . . . . . . . . . . . . . . . . . . . .355 höhere Differenz . . . . . . . . . . . . . . . . . . . . . . . . . . 40 höhere Momente . . . . . . . . . . . . . . . . . . . . . . . . . 120 ~ quantisierter Signale. . . . . . . . . . . . . . . . .341 Homogenität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Homomorphismus . . . . . . . . . . . . . . . . . . . . . . . . . 3 Hurwitz-Determinante . . . . . . . . . . . . . . . . . . . 184 Hurwitz-Kriterium . . . . . . . . . . . . . . . . . . . . . . . 184 Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 Hysterese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

I ideale Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . 316 ideale Anzeigespanne . . . . . . . . . . . . . . . . . . . . . 57 ideale Empfindlichkeit . . . . . . . . . . . . . . . . . . . . 56 ideale Kennlinie . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 idealer Anzeigewert . . . . . . . . . . . . . . . . . . . . . . . 57 idealer Messwert . . . . . . . . . . . . . . . . . . . . . . . . . . 57 idealer Tiefpass . . . . . . . . . . . . . . . . . . . . . . . . . . 317 ideales Übertragungsverhalten . . . . . . . . . . . 188 Identifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 Impulsantwort . . . . . . . . . . . . . 196, 256, 288, 324 eines Interpolationsfilters . . . . . . . . . . . . . . . 47 Impulskorrelation . . . . . . . . . . . . . . . . . . . 261, 291 Impulsreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316 indirektes Messverfahren . . . . . . . . . . . . . . . . . . 11 Inkrementalgeber . . . . . . . . . . . . . . . . . . . . 384, 413

Index

Innenprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 zweier Energiesignale . . . . . . . . . . . . . . . . . 258 zweier Leistungssignale . . . . . . . . . . . . . . . 258 innere Störgrößen . . . . . . . . . . . . . . . . . . . . . . . . . 20 Integration der Eingangsspannung . . . . . . . 324 Internationales Einheitensystem . . . . . . . . . . 7–9 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . 27, 36 bilineare ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Deutung der ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Kennfeld-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Lagrange-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Newton-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Polynom-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Spline-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 zweidimensionale ~ . . . . . . . . . . . . . . . . . . . . 49 Intervallskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 inverses Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 Irrtumswahrscheinlichkeit . . . . . . . . . . . 151, 156 ITAE-Kriterium . . . . . . . . . . . . . . . . . . . . . . 192, 210

J Jitter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326 Justierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

K Kardinalskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Kausalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Kelvin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Kennfeldinterpolation . . . . . . . . . . . . . . . . . . . . . 48 Kennlinie Drehung der ~ . . . . . . . . . . . . . . . . . . . . . . . . . 57 ideale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 Verschiebung der ~ . . . . . . . . . . . . . . . . . . . . . 57 Kennlinienfehler . . . . . . . . . . . . . . . . . . . . . . . . . . 59 relativer ~ . . . . . . . . . . . . . . . . . . . . . . . 59, 60, 64 Kennlinieninterpolation . . . . . . . . . . . . . . . . . . . 36 Kilogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 klassische Statistik . . . . . . . . . . . . . . . . . . . 448, 449 Kolmogorov-Axiome . . . . . . . . . . . . . . . . 110, 448 Kompandierung . . . . . . . . . . . . . . . . . . . . . . . . . 348 Kompensation. . . . . . . . . . . . . . . . . . . . .19, 95, 193 ~ des Zeitverhaltens . . . . . . . . . . . . . . . . . . . 223 ~ mechanischer Zahnflankenfehler . . . . 399 Kompensationsverfahren . . . . . . . . . . . . . . . . . 187 Konfidenzintervall . . . . . . . . . . . . . . . . . . . 151, 154 Konfidenzniveau . . . . . . . . . . . . . . . . . . . . . . . . . 167

Index

Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 konstanter Amplitudengang . . . . . . . . . . . . . 192 konstanter Realteil . . . . . . . . . . . . . . . . . . . . . . . 192 Korrelation ~ eines Summensignals . . . . . . . . . . . . . . . . 287 ~ von Energiesignalen . . . . . . . . . . . . . . . . . 261 ~ von Leistungssignalen . . . . . . . . . . . . . . . 259 Eigenschaften der ~ . . . . . . . . . . . . . . . . . . . 263 Impuls-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 Kurzzeit-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 Maximum der ~ . . . . . . . . . . . . . . . . . . . . . . . 266 Korrelationsfilter . . . . . . . . . . . . . . . . . . . . . . . . . 299 Korrelationsfunktion ~ eines ergodischen Prozesses . . . . . . . . . 253 Messung der ~ . . . . . . . . . . . . . . . . . . . . . . . . 265 Korrelationskoeffizient . . . . . . . . 4, 124, 143, 267 Korrelationslänge . . . . . . . . . . . . . . . . . . . . . . . . 284 Korrelationsmesstechnik . . . . . . . . . . . . . . . . . 265 Kostenfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 450 Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . 121, 122 Kovarianzfunktion ~ eines ergodischen Prozesses . . . . . . . . . 253 Kovarianzmatrix . . . . . . . . . . . . . . . . . . . . . . . . . 143 Kreisfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 Kreuzkorrelation ~ differenzierter Signale . . . . . . . . . . . . . . . 382 Differentiation der ~ . . . . . . . . . . . . . . . . . . . 273 Kreuzkorrelationsfunktion . . . . . . . . . . . . . . . 248 ~ zweier ergodischer Prozesse . . . . . . . . . 253 Abschätzung der ~ . . . . . . . . . . . . . . . . . . . . 266 Kreuzkorrelationskoeffizient . . . . . . . . . . . . . 267 Kreuzkovarianzfunktion . . . . . . . . . . . . . . . . . 248 ~ zweier ergodischer Prozesse . . . . . . . . . 253 Kreuzleistungsdichtespektrum . . . . . . . . . . . 280 Kronecker-Delta . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Krümmung. . . . . . . . . . . . . . . . . . . . . . . . .43, 68, 78

L Lageparameter . . . . . . . . . . . . . . . . . . . . . . . . . 4, 119 Lagrange-Polynom . . . . . . . . . . . . . . . . . . . . . . . . 37 Laufzeitkorrelation . . . . . . . . . . . . . . . . . . . . . . . 270 Laufzeitmessung . . . . . . . . . . . . . . . . . . . . . . . . . 266 LDS. . . . . . . . . . .siehe Leistungsdichtespektrum Least-Squares-Schätzer . . . . . . . . . . . . . . . 33, 425 Lebensdauer mittlere ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

475

Leckeffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260, 281 mittlere ~ . . . . . . . . . . . . . . . . . . . . . . . . . 257, 281 Leistungsdichtespektrum . . . . . . . . . . . . 278, 279 ~ in LTI-Systemen . . . . . . . . . . . . . . . . . . . . . 288 ~ von weißem Rauschen . . . . . . . . . . . . . . . 283 Eigenschaften des ~s . . . . . . . . . . . . . . . . . . 282 Leistungssignal . . . . . . . . . . . . . . . . . . . . . . 256, 257 Innenprodukt zweier ~e . . . . . . . . . . . . . . . 258 Norm eines ~s . . . . . . . . . . . . . . . . . . . . . . . . . 258 Likelihood-Funktion . . . . . . . . . . . . . . . . . 449, 453 lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . 34 lineares Signalmodell . . . . . . . . . . . . . . . . 420, 421 Linearität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Lose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 LS-Schätzer . . . . . . . . . . . . . . . . . . . . . . 33, 172, 403 LTI-System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

M MA-Filter . . . . . . . . . . . . . . 170, 171, 324, 353, 363 MAP-Schätzer. . . . . . . . . . . . . . . . . . . . . . . . . . . .452 Marginalisierung . . . . . . . . . . . . . . . . . . . . . . . . . 115 Maßeinheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Matched-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 mathematisches relationales System . . . . . . . . 3 Maximum-a-posteriori-Schätzer . . . . . 450–453 Maximum-Likelihood-Schätzer . . . . . . 453–459 Median . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4, 5 Merkmal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 begriffliches ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 kategoriales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 komparatives ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 4 metrisches ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 nominales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 ordinales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 qualitatives ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 quantitatives ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Rang-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Messabweichung . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Messanfang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Messbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 günstigster ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Herabsetzen des ~s . . . . . . . . . . . . . . . . . . . . . 65 Messen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3, 5 Messende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Messfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

476

Messgröße . . . . . . . . . . . . . . . . . . . . . . . . . . . 5, 11, 13 Messkennlinie . . . . . . . . . . . . . . . . . . . . . . . . . 15, 55 ideale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 Krümmung der ~ . . . . . . . . . . . . . . . . . . . . . . . 78 stationäre ~. . . . . . . . . . . . . . . . . . . . . . . . . . . . .15 Messkette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13, 96 Messskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3, 4 Messspanne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Messumformer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Messung ratiometrische ~ . . . . . . . . . . . . . . . . . . . . . . . 366 Messunsicherheit . . . . . . . . . . . . . . . . . . . . 151, 156 ~ des Stichprobenmittelwertes . . . . . . . . . 154 ~ der Einzelmessung . . . . . . . . . . . . . . . . . . 156 Messvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . 36, 420 Messverfahren direktes ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 indirektes ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Messwert angezeigter ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 idealer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 tatsächlicher ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 57 wahrer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Meter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 9 metrische Skala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 metrisches Merkmal . . . . . . . . . . . . . . . . . . . . . . . . 5 Minimalphasensystem . . . . . . . . . . . . . . . . . . . 202 Minimum-Varianz-Schätzer . . . . . . . . . . 439, 455 Mittelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . 4, 5, 119 ~ der χ2 -Verteilung . . . . . . . . . . . . . . . . . . . . 148 arithmetischer ~ . . . . . . . . . . . . . . . . . . . . . . . . . 5 geometrischer ~ . . . . . . . . . . . . . . . . . . . . . . . . . 4 gleitender ~ . . . . . . . . . . . . . . . . . . 170, 254, 324 harmonischer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Mittelwertbildung ~ bei der A/D-Umsetzung . . . . . . . . . . . . 358 ~ bei der Drehzahlmessung . . . . . . . . . . . 390 ~ bei endlicher Abtastdauer . . . . . . . . . . . 324 Mittelwertsatz der Integralrechnung . . . . . 136 Mittelwertschätzer . . . . . . . . . . . . . . . . . . . . . . . 428 mittlere Frequenz . . . . . . . . . . . . . . . . . . . . . . . . 379 mittlere Lebensdauer . . . . . . . . . . . . . . . . . . . . . 166 mittlere Leistung . . . . . . . . . . . . . . . . . . . . 257, 281 Modalwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4, 5 Modellbildung . . . . . . . . . . . . . . . . . . . . 13, 27, 183

Index

Modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 98, 275 AM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 FM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 PAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 PCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 PWM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Modus . . . . . . . . . . . . . . . . . . . . . . siehe Modalwert Moivre-Laplace-Theorem . . . . . . . . . . . . . . . . 160 Mol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .119 ~ der Impulsantwort . . . . . . . . . 192, 196, 197 ~ einer Zufallsvariablen . . . . . . . . . . . . . . . 119 ~ eines ergodischen Prozesses . . . . . . . . . 253 ~ eines stochastischen Prozesses . . . . . . . 247 gemeinsames ~ . . . . . . . . . . . . . . . . . . . . . . . . 121 höhere ~e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 zentrales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Momentanfrequenz . . . . . . . . . . . . . . 17, 377, 378 Momentanleistung . . . . . . . . . . . . . . . . . . . . . . . 281 moving average . . . . . . . . . . . . . . siehe MA-Filter MRS . . . . . . . siehe mathematisches relationales System MSB . . . . . . . . . . . . . . . . . siehe höchstwertiges Bit MTTF . . . . . . . . . . . . . siehe mittlere Lebensdauer Musterfunktion . . . 241–243, 246, 247, 251, 252

N Nachlaufkorrelator . . . . . . . . . . . . . . . . . . . . . . . 272 Nachlaufumsetzer . . . . . . . . . . . . . . . . . . . 353, 372 Naturkonstanten . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Newton-Polynom . . . . . . . . . . . . . . . . . . . . . . . . . 39 Nickel-Thermometer . . . . . . . . . . . . . . . . . . . . . . 70 noise shaping . . . . . . . . . . . . . . . . . . . . . . . . 358, 361 Nominalskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 ~ eines Energiesignals . . . . . . . . . . . . . . . . . 258 ~ eines Leistungssignals . . . . . . . . . . . . . . . 258 Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5, 18 Normalbedingungen . . . . . . . . . . . . . . . . . . . 57, 65 Normalengleichung . . . . . . . . . . . . . . . . . . . . . . 425 Normalverteilung . . . . . . . . . . . . . . . . . . . 141, 142 mehrdimensionale ~ . . . . . . . . . . . . . . . . . . 143 Transformation der ~ . . . . . . . . . . . . . . . . . . 142 Nullhypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 Nullpunktfehler . . . . . . . . . . . . . . . . . . . . . . . 59, 65 Nyquist-Band . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321

Index

O Offsetfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 optimale Quantisierung . . . . . . . . . . . . . . . . . . 345 optimales Detektionsfilter . . . . . . . . . . . . . . . . 299 Optimalfilter . . . . . . . . . . . . 33, 298, 299, 302, 303 Ordinalskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Orthogonalität ~ stochastischer Prozesse . . . . . . . . . . . . . . 249 ~ von Funktionen . . . . . . . . . . . . . . . . . . . . . . 30 ~ von Vektoren . . . . . . . . . . . . . . . . . . . . . . 28, 29 orthonormale Basis . . . . . . . . . . . . . . . . . . . . . . . . 29 Oszillographendämpfung . . . . . . . . . . . 203, 215

P P-Regler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228, 233 PAM . . . . . . . . siehe Pulsamplitudenmodulation Parameteroptimierung . . . . . . . . . . 192, 193, 302 Parameterschätzung . . . . . . . . . . . . . . . . . . . . . . . 33 Parametertest . . . . . . . . . . . . . . . . . . . . . . . . 158, 159 Parametervektor . . . . . . . . . . . . . . . . 420, 437, 443 Parseval’sches Theorem . . . . 216, 222, 262, 275 PCM . . . . . . . . . . . . . . siehe Pulscodemodulation Periodendauer . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 Periodendauermessung . . . . . . . . . . . . . . . . . . 385 Quantisierungsfehler bei der ~ . . . . . . . . 393 relativer Quantisierungsfehler der ~ . . . 388 periodisches Signal . . . . . . . . . . . . . . . . . . . . . . . 277 Periodogramm . . . . . . . . . . . . . . . . . . . . . . 293, 444 Phase-locked loop . . . . . . . . . . . . . . . . . . . . . . . . 405 Phasengang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 Phasenregelkreis . . . . . . . . . . . . . . . . . . . . . . . . . 405 Phasenvergleicher . . . . . . . . . . . . . . . . . . . . . . . . 406 physikalische Messkennlinie . . . . . . . . . . . . . . 15 PI-Regler . . . . . . . . . . . . . . . . . . . . . . . . 195, 232, 234 PLL . . . . . . . . . . . . . . . . . . siehe Phase-locked loop Poisson’sches Theorem . . . . . . . . . . . . . . . . . . . 166 Poisson-Verteilung. . . . . . . . . . . . . . . . . . . 141, 166 Polaritätskorrelator . . . . . . . . . . . . . . . . . . . . . . 273 Pole dominante ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 223 Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 kubisches ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 Lagrange-~ . . . . . . . . . . . . . . . . . . . . . . . . . 37, 38 Newton-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Spline-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Polynomansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

477

Polynominterpolation . . . . . . . . . . . . . . . . . . . . . 36 Positionsbestimmung . . . . . . . . . . . . . . . . . . . . 413 PRBS-Folge . . . . . . . . . . . . 285, 286, 291, 292, 297 Projektionstheorem . . . . . . . . . . . . . . . . . . . . . . 424 Prozessbrauchbarkeitsindex . . . . . . . . . . . . . . 164 Prozessfähigkeitsindex . . . . . . . . . . . . . . . . . . . 163 Pseudoinverse . . . . . . . . . . . . . . . 33, 173, 403, 426 pseudostochastische Binärfolge . . . . . . . . . siehe PRBS-Folge PT1 -Verhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 PT2 -Verhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 Pulsamplitudenmodulation . . . . . . . . . . . . . . . 16 Pulscodemodulation . . . . . . . . . . . . . . . . . . . . . . 17 Pulsweitenmodulation . . . . . . . . . . . . . . . . . . . . 17 PWM . . . . . . . . . . . . siehe Pulsweitenmodulation

Q quadratisches Fehlerintegral . . . . . . . . . 193, 216 Quantil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Quantisierung . . . . . . . . . . . . . . . 17, 302, 315, 331 äquidistante ~ . . . . . . . . . . . . . . . . . . . . . . . . . 331 ~ einer harmonischen Schwingung . . . . 332 nichtlineare Kennlinie bei der ~. . . . . . . .346 optimale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 Quantisierungsfehler . . . . . . . . . . . . . . . . . . . . . 331 Leistungsdichte des ~s bei der Periodendauermessung . . . . . . . . . . . . . . . 397 relativer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 Wahrscheinlichkeitsdichte des ~s . 333, 342 Quantisierungsfrequenz . . . . . . . . . . . . . . . . . . 339 Quantisierungsmodell . . . . . . . . . . . . . . . . . . . 343 Quantisierungsrauschen . . . . . . . . . . . . . . . . . 333 Quantisierungsstufe . . . . . . . . . . . . . . . . . . . . . . 331 Quantisierungstheorem . . . . . . . . . . . . . . 337, 339

R Rückwirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 Raffungsfaktor . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 Randdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 Rangkorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Rate-Multiplier . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 ratiometrische Messung . . . . . . . . . . . . . . . . . . 366 Rauschabstand siehe Signal-Rausch-Verhältnis Rauschen . . . . . . . . . . . . . . . . . . . . . . . . 19, 243, 282 farbiges ~ . . . . . . . . . . . . . . . . . . . . . . . . . 284, 291 weißes ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 282, 420

478

weißes Gauß’sches ~ . . . . . . . . . . . . . . . . . . 283 Rauschformung . . . . . . . . . . . . . . . . . 358, 361, 362 Rauschunterdrückung . . . . . . . . . . . . . . . . . . . 306 Realteil des Frequenzganges. . . . . . . . . . . . . .205 Rechteckfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 48 Regression lineare ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . 34 Regressionsgerade . . . . . . . . . . . . . . . . . . . . . . . . 35 Regressionsvektor . . . . . . . . . . . . . . . . . . . 421, 422 Reibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 Rekonstruktion . . . . . . . . . . . . . . . . . 302, 317, 339 relative Häufigkeiten . . . . . . . . . . . . . . . . . . . . . 449 relativer Fehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 relativer Kennlinienfehler . . . . . . . . . . 59, 60, 64 relativer Quantisierungsfehler ~ der Frequenzmessung . . . . . . . . . . . . . . . 389 ~ der Periodendauermessung . . . . . . . . . 388 Rückwirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

S Satz von Bayes . . . . . . . . . . siehe Bayes-Theorem Schätzer Gauß-Markov-~ . . . . . . . . . . . . . . . . . . 439, 454 MAP-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452 Maximum-a-posteriori-~ . . . . . . . . . . 450–453 Maximum-Likelihood-~ . . . . . . . . . . 453–459 Minimum-Varianz-~ . . . . . . . . . . . . . . 439, 455 Schätzfehlerkovarianz . . . . . . . . . . . . . . . 439, 441 Schätzfilter . . . . . . . . . . . . . . . . . . . . . . . . . . 423, 438 Scharmittelwert . . . . . . . . . . . . . . . . . . . . . 246, 247 Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 Schätzfehlerkovarianzmatrix bezogene ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 Schätzfunktion . . . . . . . . . . . . . . . . . siehe Schätzer Schätzung ~ der Korrelation . . . . . . . . . . . . . . . . . . . . . . 266 ~ der Periodendauer . . . . . . . . . . . . . . . . . . 396 ~ der Zahnflankenfehler . . . . . . . . . . . . . . . 402 ~ des Leistungsdichtespektrums . . . . . . . 293 effiziente ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 erwartungstreue ~ . . . . . . . . . . . . . . . . . . . . . 130 konsistente ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 130 Schiefe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120, 134 Schmitt-Trigger . . . . . . . . . . . . . . . . . . . . . . . . . . 385 schwache Ergodizität . . . . . . . . . . . . . . . . . . . . . 252

Index

Schwarz’sche Ungleichung . 124, 258, 260, 261 Schwerpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 schwingende Einstellung . . . . . . . . . . . . . . . . . 186 Sekunde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Sensitivität . . . . . . . . . . . . . siehe Empfindlichkeit Sensor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .13 Sheppard-Korrektur . . . . . . . . . . . . . . . . . . . . . . 342 SI . . . . . . siehe Internationales Einheitensystem Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Ähnlichkeit zweier ~e . . . . . . . . . . . . . . . . . 266 amplitudenanaloges ~ . . . . . . . . . 16, 315, 377 digitales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Distanz zweier ~e . . . . . . . . . . . . . . . . . . . . . 266 Energie-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 frequenzanaloges ~ . . . . . . . . . . . . . . . . 17, 377 harmonisches ~ . . . . . . . . . . . . . . . . . . . . 15, 377 impulsförmiges ~ . . . . . . . . . . . . . . . . . . 16, 377 Leistung eines ~s . . . . . . . . . . . . . . . . . 260, 281 Leistungs-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 periodisches ~ . . . . . . . . . . . . . . . . . . . . . . . . . 277 Rekonstruktion eines ~s . . . . . . . . . . . . . . . 302 stochastisches ~ . . . . . . . . . . . . . . . . . . . . . . . 378 zeitanaloges ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Signal-Rausch-Verhältnis ~ bei der Kompandierung . . . . . . . . . . . . . 349 ~ beim Aliasing . . . . . . . . . . . . . . . . . . . 322, 323 ~ beim Delta-Sigma-Modulator . . . . . . . . 362 ~ beim Jitter . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 ~ infolge der Quantisierung . . . . . . . . . . . 345 Signaldetektion . . . . . . . . . . . . . . . . . . . . . . . . . . 297 Signalenergie . . . . . . . . . . . . . . . . . . . . . . . . 261, 262 Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 Signalleistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 Signalmodell . . . . . . . . . . . . . . . . . . . . . . . . . 33, 172 lineares ~ . . . . . . . . . . . . . . . . . . . . . . . . . 420, 421 Signalparameter . . . . . . . . . . . . . . . . . . . . . . . . . 419 Signalrekonstruktion . . . . . . . . . . . . . . . . . . . . . 302 Signalschätzung . . . . . . . . . . . . . . . . . . . . . . . . . . 302 Signalverarbeitung . . . . . . . . . . . . . . . . . . . 13, 315 Signifikanzniveau . . . . . . . . . . . . . . . . . . . . . . . . 156 Signifikanztest . . . . . . . . . . . . . . . . . . . . . . . 150, 158 Sinc-Funktion . . . . . . . . . . . 48, 325, 350, 390, 392 Skalenniveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Skalentyp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 SNR . . . . . . . . . . . siehe Signal-Rausch-Verhältnis sonstiges Signal . . . . . . . . . . . . . . . . . . . . . . . . . . 257

Index

spannungsgesteuerter Oszillator . . . . . . . . . 274 Spannungsmessung . . . . . . . . . . . . . . . . . . . . . . 103 spektrale Überlappungen . . . . . . . . . . . . . . . . 318 Spektrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48, 99 Ähnlichkeit zweier ~en . . . . . . . . . . . . . . . . 274 Distanz zweier ~en . . . . . . . . . . . . . . . . . . . . 275 Leistungsdichte-~ . . . . . . . . . . . . . . . . . . . . . 278 Spezifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 ~-Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . 42 kubischer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Sprungantwort . . . . . . . . . . . . . . . . . . . . . . 183, 185 Kennwerte der ~ . . . . . . . . . . . . . . . . . . . . . . 186 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 Stabilitätskriterium . . . . . . . . . . . . . . . . . . . . . . . 184 Hurwitz-~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 Standardabweichung . . . . . . . . . . . . . . 5, 120, 133 Standardnormalverteilung . . . . . . . . . . . 142, 146 Stationarität . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 250 schwache ~. . . . . . . . . . . . . . . . . . . . . . . . . . . .251 strenge ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 verbundene ~ . . . . . . . . . . . . . . . . . . . . . . . . . 250 statischer Fehler . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 ~ n-ter Ordnung . . . . . . . . . . . . . . . . . . . . . . 119 Bayes’sche ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 449 klassische ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 449 statistische Prozessüberwachung . . . . . . . . . 170 statistische Sicherheit . . . . . . . . . . . . . . . . . . . . . 151 statistische Unabhängigkeit . . . . . . . . . . . . . . 283 statistischer Test . . . . . . . . . . . . . . . . . . . . . . . . . . 150 Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 Stichprobenmittelwert . . . . . . . . . . . . . . . 130, 131 Stichprobenvarianz . . . . . . . . . . . . . . . . . . 130, 132 stochastische Unabhängigkeit . . . . . . . . . . . . 116 ~ stochastischer Prozesse . . . . . . . . . . . . . . 245 stochastischer Prozess . . . . . . . . . . . . . . . . . . . . 241 ergodischer ~ . . . . . . . . . . . . . . . . . . . . . . . . . 251 schwach ergodischer ~ . . . . . . . . . . . . . . . . 252 schwach stationärer ~ . . . . . . . . . . . . . . . . . 251 stationärer ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 249 Störabstand . . . siehe Signal-Rausch-Verhältnis Störgröße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 ~n in Messketten . . . . . . . . . . . . . . . . . . . . . . . 96 deformierende ~. . . . . . . . . . . . . . . . . . . . . . . .89 superponierende ~ . . . . . . . . . . . . . . . . . . 86, 88

479

Störgrößenvektor . . . . . . . . . . . . . . . . . . . . . . 15, 65 Störungsunterdrückung . . . . . . . . . . . . . . . . . . 137 strenge Stationarität . . . . . . . . . . . . . . . . . . . . . . 250 Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Streuungsmaß . . . . . . . . . . . . . . . . . . . . . . . . . 4, 120 Strommessung . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Strukturänderung . . . . . . . . . . . . . . . . . . . 193, 223 Student’sche t-Verteilung . . . . . . . . . . . . . . . . . 149 superponierende Störgröße . . . . . . . . . . . . . . . . 86 Superpositionsprinzip . . . . . . . . . . . . . . . 181, 182 System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 ~-Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . 181 ~-Klassifikation . . . . . . . . . . . . . . . . . . . . . . . 181 kausales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 lineares ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 nichtlineares ~ . . . . . . . . . . . . . . . . . . . . . . . . 187 schwingungsfähiges ~ . . . . . . . . . . . . . . . . . 183 zeitinvariantes ~ . . . . . . . . . . . . . . . . . . . . . . 182 systematischer Fehler . . . . . . . . . . . . 19, 109, 130 Systemidentifikation . . . . . . . . . . . . . . . . . 292, 306 Systemparameter . . . . . . . . . . . . . . . . . . . . 183, 190 Optimierung der ~ . . . . . . . . . . . . . . . . . . . . 192 Systemstruktur Änderung der ~ . . . . . . . . . . . . . . . . . . . . . . . 193

T t-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 149, 154 Taylor-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . 49, 63 Test statistischer ~ . . . . . . . . . . . . . . . . . . . . . . . . . 156 Testsignal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 Testverfahren Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . 159 Signifikanztest . . . . . . . . . . . . . . . . . . . . . . . . 158 Theorem von Bayes . . . . . siehe Bayes-Theorem Thermostatisierung . . . . . . . . . . . . . . . . . . . . 96, 97 Toleranzbandjustierung . . . . . . . . . . . . . . . . . . . 58 Toleranzfeld . . . . . . . . . . . . . . . . . . . . . . . . . 153, 163 Toleranzgrenze . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 Totzeit . . . . . . . . . . . . . . . . . 171, 181–183, 186, 223 Transinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Tschebyscheff’sche Ungleichung . . . . . . . . . 136

U U-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335

480

Überabtastfaktor . . . . . . . . . . . . . . . . . . . . . . . . . 362 Übertragungsfunktion . . . . . . . . . . . . . . . . . . . 183 ideale ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 Übertragungsverhalten ideales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 188, 190 Umkehrspanne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Ungleichung Bessel’sche ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Schwarz’sche ~ . . . . . . . . . . . . . . . . . . . 124, 258 Tschebyscheff’sche ~ . . . . . . . . . . . . . . . . . . 136 Unkorreliertheit . . . . . . . . . . . . 122, 283, 288, 422 ~ stochastischer Prozesse . . . . . . . . . . . . . . 249 Unschärferelation . . . . . . . . . . . . . . . . . . . . . . . . 340 Urmeter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 18

V Vandermonde-Matrix . . . . . . . . . . . . . . . . . . . . . 36 Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4, 120 ~ quantisierter Signale. . . . . . . . . . . . . . . . .341 ~ der χ2 -Verteilung . . . . . . . . . . . . . . . . . . . . 148 ~ der Bernoulli-Verteilung . . . . . . . . . . . . . 139 ~ der Binomialverteilung . . . . . . . . . . . . . . 140 ~ der Poisson-Verteilung . . . . . . . . . . . . . . 141 ~ des Quantisierungsrauschens . . . . . . . . 343 ~ quantisierter Signale. . . . . . . . . . . . . . . . .340 Variationskoeffizient. . . . . . . . . . . . . . . . . . . . . . . .4 VCO . . . . . . . siehe voltage-controlled oscillator Verbunddichte . . . . . . . . . . . . . . . . . . . . . . . . . . siehe Verbundwahrscheinlichkeitsdichte Verbundwahrscheinlichkeitsdichte . . . . . . . 115 vereinfachtes Modell . . . . . . . . . . . . . . . . . . . . . . 19 Vergessensfaktor. . . . . . . . . . . . . . . . . . . . .447, 448 Verhältnisskala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Verstärkungsprinzip . . . . . . . . . . . . . . . . . . . . . 182 Verteilungsdichte . . . . . . . . . . . . . . . . . . . . . . . siehe Wahrscheinlichkeitsdichte Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . siehe Wahrscheinlichkeitsverteilung Vertrauensintervall . . . . . . . . . . . . . . . . . . . . . . . 151 voltage-controlled oscillator . . . . . . . . . 274, 405

W wahrer Wert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . 110 Wahrscheinlichkeitsdichte . . . . . . . . . . . . . . . . 113 ~ des Quantisierungsrauschens . . . . . . . . 342

Index

~ der diskreten Zählergebnisse . . . . . . . . 394 ~ des Quantisierungsfehlers . . . . . . . . . . . 342 ~ eines stochastischen Prozesses . . . . . . . 243 ~ quantisierter Signale. . . . . . . . . . . . . . . . .338 bedingte ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 gemeinsame ~ . . . . . . . . . . . . . . . . . . . . . . . . . 115 Wahrscheinlichkeitsraum. . . . . . . . . . . . . . . . .110 Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . 109 Wahrscheinlichkeitsverteilung . . . . . . . . . . . . 112 ~ eines stochastischen Prozesses . . . . . . . 243 eingipflige ~ . . . . . . . . . . . . . . . . . . . . . . . . . . 121 flachgipflige ~ . . . . . . . . . . . . . . . . . . . . . . . . . 121 gemeinsame ~ . . . . . . . . . . . . . . . . . . . . . . . . . 114 leptokurtische ~ . . . . . . . . . . . . . . . . . . . . . . . 121 linksschiefe ~ . . . . . . . . . . . . . . . . . . . . . . . . . 120 platykurtische ~ . . . . . . . . . . . . . . . . . . . . . . . 121 rechtsschiefe ~ . . . . . . . . . . . . . . . . . . . . . . . . 120 steilgipflige ~ . . . . . . . . . . . . . . . . . . . . . . . . . 121 symmetrische ~ . . . . . . . . . . . . . . . . . . . . . . . 120 unimodale ~ . . . . . . . . . . . . . . . . . . . . . . 121, 122 Walsh-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 32 Wechselstrombrücke . . . . . . . . . . . . . . . . . . . . . . 81 Wegmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 ~ mit DMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 weißes Gauß’sches Rauschen . . . . . . . . . . . . . 283 weißes Rauschen . . . . . . . . . . . . . . . . . . . . 282, 420 Wendetangentenverfahren . . . . . . . . . . . . . . . 187 Whitening-Filter . . . . . . . . . . . . . . . . . . . . . . . . . 300 Widerstandsthermometer . . . . . . . . . . . . . . . . . 68 Wiener-Chintschin-Theorem . . . . . . . . . . . . . 279 Wiener-Filter . . . . . . . . . . . . . . . . . . . . 302, 303, 305 akausales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 kausales ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 Winkelfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 winkelsynchrone Abtastung . . . . . . . . . 385, 386 Wirkdruckverfahren Durchflussmessung nach dem ~ . . . . . . . . 85 Wirksamkeit . . . . . . . . . . . . . . . . . . . siehe Effizienz Wölbung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

Z zeitanaloges Signal . . . . . . . . . . . . . . . . . . . . . . . . 17 Zeitinvarianz. . . . . . . . . . . . . . . . . . . . . . . . . . . . .182 zeitliche Abtastfehler . . . . . . . . . . . . . . . . . . . . . 326 Zeitmittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 zeitsynchrone Abtastung . . . . . . . . . . . . . . . . . 387

Index

zentraler Grenzwertsatz . . . . . . . . . . . . . 144, 336 zentrales Moment . . . . . . . . . . . . . . . . . . . . . . . . 120 Zerfallskonstante . . . . . . . . . . . . . . . . . . . . . . . . . 427 Zerhackerverstärker . . . . . . . . . . . . . . . . . . . . . . . 98 zufälliger Fehler . . . . . . . . . . . . . . . . . . . . . . 19, 109 zufälliges Signal . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Zufallsexperiment . . . . . . . . . . . . . . . . . . . 110, 241 Zufallsprozess . . . . siehe stochastischer Prozess

481

Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . 111, 241 Zustandsgleichung . . . . . . . . . . . . . . . . . . . . . . . . 13 Zustandsgröße . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 zweidimensionale Interpolation . . . . . . . . . . . 49 Zweirampen-A/D-Umsetzer . . . . . . . . . . . . . 356 zweite Differenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 40