5 Fehlerfortpflanzung

Ähnliche Dokumente
8. Stetige Zufallsvariablen

9 Die Normalverteilung

Die Varianz (Streuung) Definition

Eine zweidimensionale Stichprobe

14.3 Berechnung gekrümmter Flächen

Statistische Thermodynamik I Lösungen zur Serie 1

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

Mathematik-Tutorium für Maschinenbauer II: Differentialgleichungen und Vektorfelder

Funktionen mehrerer Variabler

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Mathematik 3 für Informatik

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Serie 10: Inverse Matrix und Determinante

1 Rechnen mit 2 2 Matrizen

Einführung in die Fehlerrechnung und Messdatenauswertung

Lösung zu den Testaufgaben zur Mathematik für Chemiker II (Analysis)

Übungsblatt 9. f(x) = e x, für 0 x

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

Theoretische Physik I: Lösungen Blatt Michael Czopnik

ν und λ ausgedrückt in Energie E und Impuls p

Mathematische Methoden für Informatiker


Lösungsvorschläge zum 14. Übungsblatt.

Univariates Datenmaterial

Den folgenden speziellen Verteilungen liegt immer eine stetige Zufallsvariable X zugrunde.

Kenngrößen von Zufallsvariablen

27 Taylor-Formel und Taylor-Entwicklungen

Lösungen zu Übung(11) Erster Teil A E=

Thema 10 Gewöhnliche Differentialgleichungen

Lineare Gleichungssysteme

Gewöhnliche Dierentialgleichungen

9.2 Invertierbare Matrizen

Dierentialgleichungen 2. Ordnung

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Klassifikation von partiellen Differentialgleichungen

Kapitel 3. Koordinatensysteme

2. Lagrange-Gleichungen

Chi-Quadrat-Verteilung

2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n

Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass

Kapitel VI. Euklidische Geometrie

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Kapitel 6. Variationsrechnung

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Analysis I - Stetige Funktionen

Kapitel VI - Lage- und Streuungsparameter

8 Stetige Zufallsvariablen

Mathematik für Anwender I. Beispielklausur I mit Lösungen

Aufgabe Summe max. P Punkte

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Tutorium Mathematik II, M Lösungen

Optimieren unter Nebenbedingungen

Funktionen lassen sich durch verschiedene Eigenschaften charakterisieren. Man nennt die Untersuchung von Funktionen auch Kurvendiskussion.


IX Relativistische Mechanik

3. Erhaltungsgrößen und die Newton schen Axiome

12. Mehrfachintegrale

Übungen zu Funktionen mehrerer Veränderlicher. Lösungen zu Übung Betrachten Sie die durch. y 1 + x 2. z = gegebene Fläche.

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Klassische Theoretische Physik I WS 2013/2014

Numerische Integration

Rotationskörper. Ronny Harbich. 1. August 2003 (geändert 24. Oktober 2007)

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

Jost Reinecke. 7. Juni 2005

Zahlen und Gleichungen

DIFFERENTIALGLEICHUNGEN

Spezielle stetige Verteilungen

Was ist Physik? Modell der Natur universell es war schon immer so

Statistik eindimensionaler Größen

Ferienkurs Experimentalphysik 4

Multivariate Analysis

l p h (x) δw(x) dx für alle δw(x).

Flächenberechnung mittels Untersummen und Obersummen

F7: Statistik und Radioaktivität

18 Höhere Ableitungen und Taylorformel

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

Mathematik II für Inf und WInf

Differentialgleichungen

Normalverteilung und Dichtefunktionen

Mathematische und statistische Methoden II

Lösungen zum 5. Aufgabenblatt

KAPITEL 6. Nichtlineare Ausgleichsrechnung

Stochastische Eingangsprüfung,

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Urs Wyder, 4057 Basel Funktionen. f x x x x 2

Mathematik für Wirtschaftswissenschaftler

Mathematik Name: Nr.4 K1 Punkte: /30 Note: Schnitt:

Vorkurs Mathematik Übungen zu Differentialgleichungen

= = = 3 10 = = 33

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation

Vorlesungsfolien Mathematik 3 WS 2010/11 UMIT. Einleitung

1.4 Gradient, Divergenz und Rotation

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Begriffe aus der Informatik Nachrichten

Transkript:

5 Fehlerfortpflanzung Diese Lektion folgt D.S. Sivia, Data Analysis: A Bayesian Tutorial, Oxford University Press, Chapter 3.6. Lernziele Lektion 5 Sie wissen, wie man Wahrscheinlichkeitsverteilungen von einer oder mehreren Variablen x auf eine oder mehrere Variablen y transformiert. Sie sind in der Lage solche Transformationen für ein- und zweidimensionale Wahrscheinlichkeitsverteilungen durchzuführen. Sie kennen die Näherungen, die zur Gauss schen Fehlerfortpflanzung führen und können entscheiden, ob ein gegebenes Problem mit dieser Näherung behandelt werden kann. 5.1 Die Fragestellung Beginnen wir mit einem Beispiel: bei der Messung des Halleffektes haben wir die Steigung R H der Hallgeraden und ihre Standardabweichung mit Hilfe der linearen Regression bestimmt. Wie gross sind nun die Elektronendichte n s = 1/eR H und ihre Standardabweichung? Im Allgemeinen führen häufig die Parameter des Modells für eine Messung nicht unmittelbar auf die physikalischen Grössen, die durch die Messung ermittelt werden sollen. Vielmehr müssen diese Grössen mit Hilfe von Messergebnissen gemäss einer Formel berechnet werden. Dabei stellt sich die Frage, wie sich die Posteriorverteilungen der Parameter, die wir bereits bestimmt haben, in die Verteilungen der physikalischen Grössen von Interesse transformieren. Insbesondere interessiert uns auch, wie sich die Standardabweichung dabei verändert. Diese Fragestellung lässt sich folgendermassen präzisieren: Fragestellung: Wir haben die Posteriorverteilung pdfx, y I) der Parameter x und y aus Messdaten bestimmt. Wie finden wir pdfz I), wobei z = hx, y)? 49

5. Erster Fall: nur ein Parameter Gegeben sei pdfx I) = fx), gesucht sei pdfz I) = gz), wobei z = hx) ist. Jedem Wert x entspricht ein korrespondierender Wert z = hx ). Betrachten wir ein kleines Intervall [x δx/, x + δx/], dann ist die Wahrscheinlichkeit, dass x in diesem Intervall liegt, gegeben durch probx δx/ x x + δx/ I) = x +δx/ x δx/ dx pdfx I) pdfx I)δx. Diese Wahrscheinlichkeit ist im linken Teil der Abb. 5 grau schraffiert dargestellt. Diesem Abbildung 5: Schematische Veranschaulichung der Koordinatentransformation. Grau schraffierte Flächen entsprechen einander und repräsentieren die gleiche Wahrscheinlichkeit. Intervall δx in x entspricht ein Intervall δz in z siehe Abb. 5, rechts). Entsprechend ist probz δz/ z z + δz/ I) pdfz I)δz. Wir fordern nun, dass diese beiden Wahrscheinlichkeiten im Grenzfall beliebig kleiner Intervalle δx und δz gleich sind, also Daraus folgt sofort pdfx I)δx = pdfz I)δz. 33) fx) = g[hx)] dhx) dx. Das ist ein einfaches Beispiel für eine Koordinatentransformation. 5

x;3,.1 inv z;3,1 4 5 1 5 x..4.6.8 1 z 1 x Abbildung 6: Links: die Gammaverteilung mit Parametern α = 3 und β =. Rechts: die Inverse Gammaverteilung mit Parametern α = 3 und β = 1/β = 1/. Beispiel: Gegeben sei die Gammaverteilung siehe Abb. 6, links) Γx; α, β) = 1 Γα)β Wie lautet die Verteilung für z = 1/x z > )? Wir haben so dass fx)dx = 1 Γα)β gz) = 1 ) 1 α 1 e 1/βz Γα)β βz ) x α 1 e x/β für x >. β ) x α 1 e x/β dx = gz)dz, β 1 ) α+1 z = 1 β Γα) β e β/z, z }{{} invγz;α, β) mit β = 1/β siehe Abb. 6, rechts). Beachte, dass das Maximum der abgebildeten Gammaverteilung bei 4 ist, wohingegen das Maximum der inversen Gammaverteilung nicht bei 1/4, sondern bei 1/8 ist. Ähnlich verhält es sich mit dem Mittelwert: der Mittelwert der abgebildeten Gammaverteilung ist x = 6, wohingegen der Mittelwert der inversen Gammaverteilung bei z = 1/4 1/ x ist. 51

5.3 Zweiter Fall: M Parameter werden in M andere Parameter transformiert In diesem Fall lautet die Bedingung, die Gl. 33) entspricht pdfx1, x,..., xm )δx1 δx... δxm = pdfz1, z,..., zm )δ M Vol{zj }). Hier ist M Vol{zj }) das infinitesimale Volumenelement, das die Abbildung des Hyperkubus δx1... δxm ist. Man findet z1... zm ) pdfx1,..., xm ) = pdfz1,..., zm ) det. x1... xm ) {z } Determinante der Jacobi-Matrix Beispiel: Gegeben sei die zweidimensionale isotrope Normalverteilung siehe Abb. 7, links)4 1 x + y pdfx, y) = exp. πσ σ Wie lautet die Verteilung in Polarkoordinaten R, θ)?.15 pdfhx,yl pdfhrl.6.4. y - x - 1 3 4 5 R Abbildung 7: Links: zweidimensionale isotrope Normalverteilung. Rechts: Verteilungsfunktion fu r die Radiuskoordinate R in Polarkoordinaten. Wir haben x = R cos θ 4 und y = R sin θ. Diese Wahrscheinlichkeitsverteilung ko nnte zum Beispiel die Aufenthaltswahrscheinlichkeit eines Teilchens im Grundzustand eines zweidimensionalen quantenmechanischen harmonischen Oszillators beschreiben. 5

Die Determinante der Jacobi-Matrix ist dann ) x, y) det = cos θ R sin θ R, θ) R sin θ R cos θ = Rcos θ + sin θ) = R. Daher ergibt sich pdfr, θ) = pdfx, y) R = R ) πσ exp R σ. 5.4 Dritter Fall: Wir transformieren von M auf N < M Parameter Dieser Fall lässt sich folgendermassen lösen: 1. Transformiere zunächst von M auf M Parameter siehe oben).. Marginalisiere die überschüssigen Parameter. Beispiel: Wie oben sei pdfx, y) die isotrope zweidimensionale Normalverteilung für die kartesischen Koordinaten x, y), die im linken Teil der Abb. 7 gezeigt ist. Wie lautet die Verteilung für R? 1. Transformiere zunächst von x, y) auf R, θ) siehe oben). Das ergibt pdfr, θ) = R ) πσ exp R σ.. Marginalisiere θ: pdfr) = π dθ pdfr, θ) = R ) σ exp R σ. Diese Verteilung ist in Abb. 7 rechts dargestellt. Interessanterweise geht die Wahrscheinlichkeitsdichte für R linear gegen Null, obwohl die ursprüngliche Verteilung bei x, y) =, ) gerade ihr Maximum hatte. Hier zeigt sich der grosse Einfluss der Determinante der Jacobimatrix, die den Faktor R beisteuert, der die transformierte Verteilung gegen Null gehen lässt. 53

5.5 Eine mathematisch formale Prozedur Mit den obigen Beispielen haben wir die zentralen Elemente der Fehlerfortpflanzung kennen gelernt: Koordinatentransformation und Marginalisierung, oder eine Kombination der beiden. Mathematisch formal lässt sich das für die Transformation z = hx, y) folgendermassen ausdrücken: pdfz I) = dx dy pdfx, y, z I) = dx dy pdfx, y I)pdfz x, y, I) = dx dy pdfx, y I)δz hx, y)). 34) Diese Formel lässt sich leicht auf Verteilungen höherer Dimensionen verallgemeinern. 5 Gleichung 34) hat eine einfache anschauliche Deutung. Betrachten wir die Funktion hx, y) als Oberfläche über der zweidimensionalen Parameterebene x, y), dann selektiert die Deltafunktion bei gegebenem z eine bestimmte Höhenlinie dieser Oberfläche. Die Wahrscheinlichkeitsdichte für z ergibt sich als Integral von pdfx, y) entlang dieser Höhenlinie. Beispiel: Es sei z = x + y und pdfx, y I) = pdfx I)pdfy I) mit pdfx I) = fx) und pdfy I) = gy). Dann ist pdfz I) = dx dy pdfx, y I)δz x y) = dx dy fx)gy)δz x y) = dx fx)gz x) Die Verteilung für die Summe zweier Parameter ist demnach die Faltung der beiden Verteilungen der Parameter. Nehmen wir insbesondere an, dass fx) und gy) Normalverteilungen sind, dann ist fx) = N x; x, σ x ) und fy) = N y; y, σ y ) pdfz = x + y I) = N das heisst die Mittelwerte addieren sich gemäss ) z; x + y, σx + σy, z = x + y und die Fehler addieren sich quadratisch gemäss σ z = σ x + σ y. 5 Diese Formulierung ist in gewisser Weise verwandt mit dem Konzept der Zustandsdichte eines quantenmechanischen Systems. Dabei spielen x und y die Rolle von Wellenvektoren, und pdfx, y) repräsentiert die konstante Dichte von Zuständen im k-raum. Die z-koordinate entspricht der Energie, während hx, y) die Dispersionsrelation ist. 54

5.6 Eine nützliche Näherung: das Gauss sche Fehlerfortpflanzungsgesetz Betrachten wir Gl. 34) unter dem Aspekt, dass wir Mittelwert und Standardabweichung von z ausrechnen wollen. Sei also pdfx, y I) = fx, y) gegeben, mit einem scharfen Maximum bei x, y ). Zudem sei z = hx, y). Das scharfe Maximum erlaubt uns eine Entwicklung von ln fx, y) um x, y ), so dass in guter Näherung ln fx, y) ln fx, y ) 1 ) ) x x H. y y gilt. Die Matrix H ist die Hesse-Matrix der zweiten Ableitungen von ln fx, y), ausgewertet bei x, y ). In dieser Näherung ist fx, y) gaussförmig in zwei Dimensionen, so dass x = x und y = y, x x = σ x = Varx), y y = σ y = Vary), x x )y y ) = σ x σ y ρ = covx, y). Die Grösse covx, y) heisst Kovarianz der Parameter x und y. Ebenso entwickeln wir hx, y) hx, y ) + x x x ) + x,y y y y ). x,y 55

Damit ist z dz dx dx dx dy zfx, y)δz hx, y)) dy hx, y)fx, y) [ dy fx, y) hx, y ) + x x x ) + y y y ) hx, y ) [ z dx dy fx, y) hx, y ) + x x x ) + y y y ) h x, y ) + x x x ) + y y y ) + x x )y y ) x y z z z z σ x x + y σy + x Wir finden auf diese Weise das Gauss sche Fehlerfortpflanzungsgesetz σ z = σx x + x y covx, y) + y y covx, y). σy. Man sollte sich jedoch darüber im Klaren sein, dass wir einige Annahmen benötigt haben, um dieses Fehlerfortpflanzungsgesetz abzuleiten. Bei der praktischen Anwendung ist daher Vorsicht geboten. Wir demonstrieren das mit Hilfe der Gammaverteilung Γx; 3, ) und der Transformation z = hx) = 1/x, die uns oben auf die inverse Gammaverteilung geführt hat. Die folgende Tabelle gibt in der ersten Spalte den Mittelwert und die Standardabweichung der zuvor betrachteten Gammaverteilung an. Die zweite Spalte gibt die exakten Ergebnisse für die transformierte Verteilung. Die dritte Spalte gibt das Ergebnis wieder, das durch Anwendung der Gausschen Fehlerfortpflanzung erzielt würde. Letzteres liegt offensichtlich weit neben den exakten Ergebnissen, weil die zugrunde liegende Gammafunktion nicht gut durch eine Normalverteilung genähert werden kann. Γx; 3, ) invγz; 3, 1/) Gauss sche Näherung Mittelwert x 6 1/4 1/6 Standardabweichung σ x 1 1/4 1/36 ] ] 56

Dies ändert sich für grosse Werte von α. Zum Beispiel ist für α = 1 die Gauss sche Näherung schon recht gut brauchbar. Beispiele für die Anwendung der Gauss schen Fehlerfortpflanzung: 1. z = hx, y) = x ± y σ z = σ x + σ y siehe oben). z = hx, y) = xy σ z = y σ x + x y covx, y) + x σ y σ σx z covx, y) σ y = + + z x y x y 3. z = hx, y) = x y σ z = σ z z = σ x y σx x covx, y) + x σ y x y 3 covx, y) + x y y 4 σ y y 5.7 Aufgaben und Fragen zum tieferen Verständnis 1. Betrachten Sie die Normalverteilung N x, x, σ). Leiten Sie die Verteilung für z = e x ab. Vergleichen Sie das Ergebnis mit der log-normalverteilung.. Betrachten Sie die Normalverteilung N x,, 1). Leiten Sie die Verteilung für z = x. Achten Sie bei dieser Transformation darauf, dass die Abbildung von z nach x nicht eindeutig ist. Vergleichen Sie das Ergebnis mit der χ -Verteilung. 3. Betrachten Sie die Gammaverteilung Γx; α, β) für grosse Werte von α. Zeigen Sie, dass die Gammaverteilung in diesem Grenzfall gut durch eine Normalverteilung angenähert werden kann. Welche Konsequenzen hat das für die Anwendbarkeit der Gauss schen Fehlerfortpflanzung? 57