Einführung in die wissenschaftliche Datenanalyse

Größe: px
Ab Seite anzeigen:

Download "Einführung in die wissenschaftliche Datenanalyse"

Transkript

1 Einführung in die wissenschaftliche Datenanalyse Dr. Michael O. Distler Mainz, 22. October 2010 Literatur Grundbegriffe Wahrscheinlichkeitsverteilungen Parameterschätzung (Fit)

2 Literatur Volker Blobel und Erich Lohrmann: Statistische und numerische Methoden der Datenanalyse, Teubner Verlag (1998) Siegmund Brandt: Datenanalyse, BI Wissenschaftsverlag (1999) Philip R. Bevington: Data Reduction and Error Analysis for the Physical Sciences, McGraw-Hill (1969) Roger J. Barlow: Statistics, John Wiley & Sons (1993) Glen Cowan: Statistical Data Analysis, Oxford University Press (1998) Frederick James: Statistical Methods in Experimental Physics, 2nd Edition, World Scientific, 2006 Wes Metzger s lecture notes: Glen Cowan s lecture notes: Particle Physics Booklet:

3 Vorbemerkungen Wissenschaftstheorie Der Kritische Rationalismus ist eine von Karl R. Popper (* 28. Juli 1902 in Wien; 17. September 1994 in London) begründete philosophische Denkrichtung, die in enger Verbindung mit seinem Modell für den wissenschaftliche Erkenntnisgewinn, dem sog. Falsifikationismus, steht. Logik der Forschung, Existenz eines wahren Wertes von Messgrößen und abgeleiteten Größen

4 Wahrscheinlichkeitstheorie Mathematische Statistik, Stochastik: Axiome von Kolmogorow Klassische Statistik, frequentist probability: Pragmatische Wahrscheinlichkeitsdefinition: n p(e) = lim N N p steht für probability n(e) = Zahl des Eintretens des Ereignisses E N = Zahl der Herbeiführung der gegebenen Bedingungen (Durchführung des Experiments) Experimente müssen (prinzipiell) wiederholbar sein. Nachteil: Strenggenommen sind keine Wahrscheinlichkeitsaussagen über die wahren Werte möglich, lediglich die Angabe von oberen und unteren Grenzen mit einer gewissen Irrtumswahrscheinlichkeit.

5 Wahrscheinlichkeitstheorie Mathematische Statistik, Stochastik Klassische Statistik, frequentist probability Bayes sche Statistik, subjective probability: Subjektive Annahmen über die Grundgesamtheit gehen in die Wahrscheinlichkeitsberechnung ein. Bildhafte Definition: Wahrscheinlichkeiten werden aus dem Verhältnis von (maximalen) Wetteinsatz und zu erwartendem Gewinn gebildet.

6 Wahrscheinlichkeitstheorie Mathematische Statistik, Stochastik Klassische Statistik, frequentist probability Bayes sche Statistik, subjective probability: In einer Stadt gibt es zwei Taxiunternehmen, das eine hat grüne, das andere gelbe Taxis. Bei einem Autounfall kommt ein Mensch zu Schaden. Ein Zeuge hat ein grünes Taxi gesehen. Es kommt zur Gerichtsverhandlung. Der Anwalt des Unternehmens zweifelt die Aussage des Zeugen an, da die Lichtverhältnisse schlecht waren. Ein Test ergibt, dass in etwa 10% der Fälle bei gleichen Bedingungen die Farbe des Taxis verwechselt wird. Würden Sie dem Zeugen glauben?

7 Wahrscheinlichkeitstheorie Mathematische Statistik, Stochastik Klassische Statistik, frequentist probability Bayes sche Statistik, subjective probability: In einer Stadt gibt es zwei Taxiunternehmen, das eine hat grüne, das andere gelbe Taxis. Bei einem Autounfall kommt ein Mensch zu Schaden. Ein Zeuge hat ein grünes Taxi gesehen. Es kommt zur Gerichtsverhandlung. Der Anwalt des Unternehmens zweifelt die Aussage des Zeugen an, da die Lichtverhältnisse schlecht waren. Ein Test ergibt, dass in etwa 10% der Fälle bei gleichen Bedingungen die Farbe des Taxis verwechselt wird. Würden Sie dem Zeugen glauben? Wenn es 20 mal mehr gelbe als grüne Taxis gäbe: Würden Sie dem Zeugen immer noch glauben?

8 Wahrscheinlichkeitstheorie Mathematische Statistik, Stochastik Klassische Statistik, frequentist probability Bayes sche Statistik, subjective probability: Taxis Zeuge sieht... Aussage ist gelbe 180 mal gelb 20 mal grün 20/29 = 69% falsch 10 grüne 9 mal grün 9/29 = 31% richtig 1 mal gelb

9 Wahrscheinlichkeitstheorie Mathematische Statistik, Stochastik Klassische Statistik, frequentist probability Bayes sche Statistik, subjective probability: Subjektive Annahmen über die Grundgesamtheit gehen in die Wahrscheinlichkeitsberechnung ein. Nachteil: Hypothesen beeinflussen die Wahrscheinlichkeit. Vorteile bei seltenen und einmaligen Ereignissen, wie verrauschten Signalen oder Katastrophenwahrscheinlichkeiten.

10 Wahrscheinlichkeitstheorie Mathematische Statistik, Stochastik Klassische Statistik, frequentist probability Bayes sche Statistik, subjective probability: Subjektive Annahmen über die Grundgesamtheit gehen in die Wahrscheinlichkeitsberechnung ein. Nachteil: Hypothesen beeinflussen die Wahrscheinlichkeit. Vorteile bei seltenen und einmaligen Ereignissen, wie verrauschten Signalen oder Katastrophenwahrscheinlichkeiten. Im F-Praktikum kommt die klassische Statistik zur Anwendung. Deshalb sollten alle Fehlerangaben als Konfidenzbereiche verstanden werden.

11 Kombination von Wahrscheinlichkeiten Gegeben sind zwei Arten von Ereignissen, A und B. Die Wahrscheinlichkeit für das Autreten von A ist p(a) (B: p(b)). Dann ist die Wahrscheinlichkeit, dass A oder B eintritt: p(a oder B) = p(a) + p(b) p(a und B) Falls sich die Ereignisse A und B gegenseitig ausschließen, gilt p(a und B) = 0 Beispiel: Zufälliges Ziehen aus einem Deck von Skatkarten. p(as oder Pik) = = Spezialfall: B = Ā (Nicht-Eintreten von A). p(a und Ā) = p(a) + p(ā) = 1

12 Kombination von Wahrscheinlichkeiten Die Wahrscheinlichkeit, dass A und B zusammen eintreten, ist: p(a und B) = p(a) p(b A), p(b A) ist die bedingte Wahrscheinlichkeit, dass das Ereignis B eintritt, vorausgesetzt, das Ereignis A ist eingetreten. Falls die Ereignisse A und B unabhängig sind - aber auch nur dann - gilt p(b A) = p(b), bzw. p(a und B) = p(a) p(b)

13 Tod in den Bergen In einem Buch über die bergsteigerischen Leistungen von Reinhold Messner ist folgendes zu lesen: Wenn man bedenkt, dass die Wahrscheinlichkeit, bei einer Expedition auf einen Achttausender umzukommen, 3,4% beträgt, dann hatte Messner eine Wahrscheinlichkeit von 3,4% 29 = 99%, bei seinen 29 Expeditionen getötet zu werden.

14 Tod in den Bergen In einem Buch über die bergsteigerischen Leistungen von Reinhold Messner ist folgendes zu lesen: Wenn man bedenkt, dass die Wahrscheinlichkeit, bei einer Expedition auf einen Achttausender umzukommen, 3,4% beträgt, dann hatte Messner eine Wahrscheinlichkeit von 3,4% 29 = 99%, bei seinen 29 Expeditionen getötet zu werden. Das kann doch nicht wahr sein, was ist, wenn Messner zu einer 30. Expedition aufbricht?

15 Tod in den Bergen In einem Buch über die bergsteigerischen Leistungen von Reinhold Messner ist folgendes zu lesen: Wenn man bedenkt, dass die Wahrscheinlichkeit, bei einer Expedition auf einen Achttausender umzukommen, 3,4% beträgt, dann hatte Messner eine Wahrscheinlichkeit von 3,4% 29 = 99%, bei seinen 29 Expeditionen getötet zu werden. Das kann doch nicht wahr sein, was ist, wenn Messner zu einer 30. Expedition aufbricht? Die Wahrscheinlichkeit, eine Expedition zu überleben ist offensichtlich 1 0,034 = 0,966. Wenn man annimmt, dass die einzelnen Expeditionen unabhängige Ereignisse darstellen, ist die Wahrscheinlichkeit, alle 29 Expeditionen zu überleben: P = 0, = 0,367.

16 Definitionen Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsdichte eines Messwertes (=Zufallsvariable) f(n) n f(x) f (n) diskret f (x) kontinuierlich Normierung: f (n) 0 f (n) = 1 f (x) 0 f (x) dx = 1 Wahrscheinlichkeit: n p(n 1 n n 2 ) = n 2 x n 1 f (n) p(x 1 x x 2 ) = x2 x 1 f (x) dx

17 Definitionen Integrierte Verteilungsfunktion oder kumulative Wahrscheinlichkeitsverteilung: F(x) = x f (x )dx, F( ) = 0, F( ) = 1 Beispiel: Zerfallszeit t eines radioaktiven Kerns der mittleren Lebensdauer τ: f (t) = 1 τ e t/τ 1 F(t) = 1 e t/τ 0.8 f(t)*12s F(t) t/s

18 Erwartungswerte und Momente Mittelwert: Kann eine Zufallsgröße E die Werte E 1, E 2,..., E n annehmen und geschieht dies mit der Wahrscheinlichkeit p(e i ), dann bezeichnet man als Mittelwert der Größe E ( Erwartungswert ) Ē = E = n E i p(e i ) Der Erwartungswert der Funktion h(x) für kontinuierliche Zufallsgrößen: E[h(x)] = i=1 h(x) f (x)dx Mittelwert: ist der Erwartungswert von x (wichtiger Spezialfall): E[x] = x = x f (x)dx

19 Erwartungswerte und Momente Streuung = {Mittelwert der (Abweichung von x) 2 } 1/2 σ 2 = (x x) 2 = = (x x) 2 f (x)dx (x 2 2x x + x 2 ) f (x)dx = x 2 2 x x + x 2 = x 2 x 2 σ 2 = Varianz, σ = Standardabweichung Für diskrete Verteilungen: ( x 2 ( x) 2 ) σ 2 = 1 N N Vorsicht: Hier wird die Varianz definiert! Für eine erwartungstreue Schätzung der Varianz wird 1 N durch 1 N 1 ersetzt. Siehe: Schätzverfahren

20 Erwartungswerte und Momente Momente: Die Erwartungswerte von x n und von (x x ) n werden n-te algebraische Momente µ n und n-te zentrale Momente µ n genannt. Die Schiefe v(x) einer Zufallsvariablen x ist das auf die dritte Potenz der Standardabweichung bezogene zentrale Moment 3. Ordnung µ 3 (x): v = µ 3 σ 3 = E[(x E[x])3 ] σ 3 Das 4te zentrale Moment bezogen auf die vierte Potenz der Standardabweichung bezeichnet man als Wölbung (Kurtosis).

21 Binomialverteilung Häufige Fragestellung: Sei p die Wahrscheinlichkeit für das Eintreten des Ereignisses bei einem Versuch - wie groß ist die Wahrscheinlichkeit, dass das Ereignis bei n Versuchen r-mal eintritt? ( ) n P(r) = p r (1 p) n r r P(r) ist korrekt auf 1 normiert. Binomialtheorem mit q = 1 p. Der Mittelwert von r ist: Die Varianz σ 2 ist r = E[r] = V [r] = E[(r r ) 2 ] = n rp(r)= np r=0 n (r r ) 2 P(r)= np(1 p) r=0

22 Poisson-Verteilung Die Poisson-Verteilung ist gegeben durch: P(r) = µr e µ r! Der Mittelwert ist: r = µ Die Varianz ergibt sich aus V [r] = np(1 p) für die Binomialverteilung: V [r] = σ 2 = np = µ µ = µ = µ = µ =

23 Das Gesetz der großen Zahl Angenommen, dass in n statistisch unabhängigen Experimenten das Ereignis j insgesamt n j mal aufgetreten ist. Die Zahlen n j folgen einer Binomialverteilung, und das Verhältnis h j = n j /n ist die entsprechende Zufallsvariable. Der Erwartungswert E[h j ] ist die Wahrscheinlichkeit p j für das Ereignis j: p j = E[h j ] = E[n j /n] Für die Varianz gilt dann (Binomialverteilung!): V [h j ] = σ 2 (h j ) = σ 2 (n j /n) = 1 n 2 σ2 (n j ) = 1 n 2 np j(1 p j ) Da das Produkt p j (1 p j ) immer 1 4 ist, gilt die Ungleichung σ 2 (h j ) < 1/n bekannt als das Gesetz der großen Zahl.

24 Der Zentrale Grenzwertsatz Der zentrale Grenzwertsatz (ZGS) ist der wichtigste Satz in der Statistik. Unter anderem erklärt er die zentrale Bedeutung der Gauß-Verteilung. Die Wahrscheinlichkeitsdichte der Summe w = n i=1 x i einer Stichprobe aus n unabhängigen Zufallsvariablen x i mit einer beliebigen Wahrscheinlichkeitsdichte mit Mittelwert x und Varianz σ 2 geht in der Grenze n gegen eine Gauß-Wahrscheinlichkeitsdichte mit Mittelwert w = n x und Varianz V [w] = nσ 2.

25 Illustration: Zentraler Grenzwertsatz N=1 0.4 Gauss 0.4 N= N= N= Dargestellt ist die Summe uniform verteilter Zufallszahlen im Vergleich zur Standardnormalverteilung.

26 Spezielle Wahrscheinlichkeitsdichten Gleichverteilung: Diese Wahrscheinlichkeitsdichte ist konstant zwischen den Grenzen x = a und x = b: f (x) = Mittelwert und Varianz sind: x = E[x] = a + b 2 { 1 b a a x < b 0 außerhalb V [x] = σ 2 = (b a)2 12 Die Gleichverteilung wird oft U(a, b) ( uniform ) geschrieben. Besonders wichtig ist die Verteilung U(0, 1) mit den Grenzen 0 und 1, die eine Varianz 1/12 hat.

27 Die Normalverteilung (Gauß-Verteilung) Die wichtigste Wahrscheinlichkeitsdichte wegen ihrer großen Bedeutung in der Praxis. f (x) = 1 e (x µ)2 2σ 2 2πσ Die Normalverteilung wird von zwei Parametern bestimmt, dem Mittelwert µ und der Standardabweichung σ. Die Wahrscheinlichkeitsdichte mit dem Mittelwert µ = 0 und der Varianz σ 2 = 1 heißt standardisierte Gauß-Verteilung, abgekürzt N(0, 1). Die Gauß-Verteilung kann hergeleitet werden als Grenzfall der Binomialverteilung für große Werte von n und r, und auf ähnliche Weise auch als Grenzfall der Poisson-Verteilung für große Werte von µ.

28 Die Normalverteilung (Gauß-Verteilung) dx N(0, 1) = 0,6827 = (1 0,3173) dx N(0, 1) = 0,9545 = (1 0,0455) dx N(0, 1) = 0,9973 = (1 0,0027) FWHM: Dieser Begriff ist oft nützlich, um auf einfache Weise die Standardabweichung einer Gaußkurve zu schätzen. FWHM = 2σ 2ln2 = 2,355σ

29 Die Normalverteilung (Gauß-Verteilung) im Vergleich Links: Binomialverteilung mit n = 10 und p = 0,6 im Vergleich mit der Gauß-Verteilung mit µ = np = 6 und σ = np(1 p) = 2,4. Rechts: Poisson-Verteilung mit µ = 6 und σ = 6 im Vergleich mit der Gauß-Verteilung.

30 Integrierte Gaußfunktion Die Wahrscheinlichkeitsverteilung wird mit Φ(x) bezeichnet, Φ(x) = 1 2πσ x e (t µ) 2 2σ 2 dt. In vielen Formelsammlungen finden sich Tabellen der integrierten standardisierten Gauß-Verteilung, F(x) = 1 2π z e x2 2. Die integrierte Verteilungsfunktion kann durch die Gauß sche Fehlerfunktion erf(x) ausgedrückt werden, erf(x) = 2 π x Φ(x) = e t2 dt. ( ( )) x µ 1 + erf. 2σ

31 Integrierte Gaußfunktion *(1+erf(x/sqrt(2))) 0.4*exp(-0.5*x*x)

32 χ 2 -Verteilung Falls x 1, x 2,..., x n unabhängige Zufallsvariable sind, die alle einer Gauß-Wahrscheinlichkeitsdichte folgen mit Mittelwert 0 und Varianz 1, so folgt die Summe u = χ 2 = n i=1 x 2 i einer χ 2 -Verteilung f n (u) = f n (χ 2 ) mit n Freiheitsgraden. Die Wahrscheinlichkeitsdichte ist: ( 1 u ) n/ e u/2 f n (u) = Γ(n/2) Die Wahrscheinlichkeitsdichte f n (u) hat ein Maximum bei (n 2). Der Mittelwert ist n und die Varianz 2n.

33 χ 2 -Wahrscheinlichkeitsdichte pdf(2,x) pdf(3,x) pdf(4,x) pdf(5,x) pdf(6,x) pdf(7,x) pdf(8,x) pdf(9,x)

34 χ 2 -Verteilungsfunktion Sie beschreibt die Wahrscheinlichkeit, dass χ 2 n im Intervall [0, x] liegt cdf(2,x) cdf(3,x) cdf(4,x) cdf(5,x) cdf(6,x) cdf(7,x) cdf(8,x) cdf(9,x)

35 χ 2 -Verteilung mit 5 Freiheitsgraden % c.l. [ ]

36 Zufallsvariable in zwei Dimensionen Die mehrdimensionale Wahrscheinlichkeitsdichte f (x, y) der zwei Zufallszahlen x und ỹ ist definiert durch die Wahrscheinlichkeit, das Variablenpaar ( x, ỹ) in den Intervallen a x < b und c ỹ < d zu finden Normierung: Gilt: P(a x < b, c ỹ < d) = d b c a f (x, y) dx dy = 1 f (x, y) = h(x) g(y) dann sind die zwei Zufallsvariablen unabhängig. f (x, y) dx dy

37 Zufallsvariable in zwei Dimensionen Mittelwerte und Varianzen sind naheliegend (siehe 1. Dim): < x >= E[x] = x f (x, y) dx dy < y >= E[y] = y f (x, y) dx dy V [x] = (x < x >) 2 f (x, y) dx dy = σx 2 V [y] = (y < y >) 2 f (x, y) dx dy = σy 2 Sei z eine Funktion von x, y: z = z(x, y) Damit ist z ebenfalls eine Zufallsvariable. < z > = z(x, y) f (x, y) dx dy σ 2 z = (z < z >) 2

38 Zufallsvariable in zwei Dimensionen Einfaches Beispiel: z(x, y) = a x + b y Erwartungswert von z: < z > = a x f (x, y) dx dy + b y f (x, y) dx dy = a < x > + b < y > unproblematisch

39 Zufallsvariable in zwei Dimensionen Varianz: σ 2 z = = z(x, y) = a x + b y ((a x + b y) (a < x > + b < y >)) 2 ((a x a < x >) + (b y b < y >)) 2 = a 2 (x < x >) 2 +b 2 (y < y >) 2 } {{ } } {{ } σx 2 σy 2 +2ab (x < x >)(y < y >) }{{}?? < (x < x >)(y < y >) >= cov(x, y) Kovarianz = σ xy = (x < x >)(y < y >) f (x, y) dx dy

40 Zufallsvariable in zwei Dimensionen Normierte Kovarianz: cov(x, y) σ x σ y = ρ xy Korrelationskoeffizient gibt ein grobes Maß der Abhängigkeit zweier Variablen an. 1 ρ xy 1

41 Zufallsvariable in zwei Dimensionen Für die Determinante der Kovarianzmatrix gilt: σ xy = σ2 xσy 2 σxy 2 = σxσ 2 y(1 2 ρ 2 ) 0 σ2 x σ xy σ 2 y

42 2-dim Gauß-Verteilung Parameter a Parameter a 1 Wahrscheinlichkeitsinhalt der Kovarianzellipse: 39,3%

43 Kovarianzmatrix in n-dimensionen Als Verallgemeinerung der Varianz definiert man die Kovarianzmatrix durch: V ij = ( x < x >)( x < x >) T Damit ergeben sich als Diagonalelemente der Matrix V ij die Varianzen und als Nicht-Diagonalelemente die Kovarianzen: V ii = var(x i ) = (x i < x i >) 2 f ( x) dx 1 dx 2... dx n V ij = cov(x i, x j ) = (x i < x i >)(x j < x j >) f ( x) dx 1 dx 2... dx n.

44 Kovarianzmatrix in n-dimensionen Die Kovarianzmatrix V ij = var(x 1 ) cov(x 1, x 2 )... cov(x 1, x n ) cov(x 2, x 1 ) var(x 2 )... cov(x 2, x n ) cov(x n, x 1 ) cov(x n, x 2 )... var(x n ) ist eine symmetrische n n-matrix. Man schreibt auch: V ij = σ 2 1 σ σ 1n σ 21 σ σ 2n σ n1 σ n2... σ 2 n

45 Faltung Zwei Zufallsvariablen x und y seien durch ihre Wahrscheinlichkeiten f x (x) und f y (y) gegeben. Offensichtlich ist ihre Summe w = x + y ebenfalls eine Zufallsvariable. Die Wahrscheinlichkeitsdichte der Summe w sei f w (w). Sie wird durch erhalten durch eine Faltung von x mit y. f w (w) = f x (x)f y (y)δ(w x y) dx dy = f x (x)f y (w x) dx = f y (y)f x (w y) dy Charakteristische Funktion

46 Transformation von Wahrscheinlichkeitsdichten Die Wahrscheinlichkeitsdichte f x (x) der Variablen x soll vermöge y = y(x) in eine andere Variable y transformiert werden: f x (x) y = y(x) f y(y) Betrachte: Intervall (x, x + dx) (y, y + dx) Bedenke: die Flächen unter den Wahrscheinlichkeitsdichten in den jeweiligen Intervallen müssen gleich sein. f x (x)dx = f y (y)dy f y (y) = f x (x(y)) dx dy

47 Transformation von Mittelwert und Varianz, Fehlerfortplanzung Entwicklung um Mittelwert: y(x) = y( x ) + (x x ) dy dx + 1 x= x 2 (x d 2 y x )2 dx x= x Bis 2. Ordnung: E[y] y( x ) + E[x x ] dy dx + 1 x= x 2 E[(x x )2 ] d 2 y dx 2 }{{} =0 1 d 2 y y y( x ) + 2 σ2 x dx 2 x= x }{{} wird oft weggelassen x= x

48 Transformation von Mittelwert und Varianz, Fehlerfortplanzung Für die Varianz nehmen wir an y y( x ) und entwickeln y(x) um den Mittelwert x bis zur 1. Ordnung: ( [ V [y] = E (y y ) 2] = E (x x ) dy ) 2 dx = ( 2 dy dx E x= x ) ( [ (x x ) 2] = x= x dy dx x= x Gesetz der Fehlerfortpflanzung für eine Zufallsvariable. ) 2 σ 2 x

49 Schätzung von Parametern Problemstellung: Aus fehlerbehafteten Messungen möglichst genaue Ergebnisse erarbeiten zusammen mit Aussagen über Zuverlässigkeit und Grenzen. Vorsicht: Messungen unterliegen einer Reihe von unkontrollierbaren Einflüssen, welche zufällig genannt werden - sie sind also mit statistischen Fehlern versehen. Daneben gibt es aber noch systematische Fehler, die durch eine fehlerhafte Methode hervorgerufen werden, etwa durch falsche Messinstrumente oder falsche Formeln bei der Auswertung. Systematische Fehler müssen anders behandelt werden als statistische Fehler. So können sie auch durch Mittelung über mehrere Messungen nicht reduziert werden.

50 Schätzung von Parametern Formal: Messung von n unabhängigen Werten x 1, x 2,..., x n der Zufallsvariablen x bzw. x. (Stichprobe) Aufgabe: Beste Schätzung eines (mehrerer) Parameter. Diese Schätzung ist selbst auch eine Zufallsvariable. Deshalb sollen auch Aussagen über Fehler und Korrelationskoeffizienten gemacht werden. Allgemeine Kriterien für eine Methode zur Bestimmung von Parametern mit Schätzwert â und wahrem Wert a 0 : 1 Konsistenz: lim n â = a 0. 2 Erwartungstreue: E[â] = a 0. 3 Effizienz: Varianz von â klein. 4 Robustheit gegenüber falschen Daten und Voraussetzungen. Wobei die letzten beiden Kriterien häufig im Widerspruch sind.

51 Robuste Schätzung von Mittelwerten n x = 1 n i=1 x i Konsistenz? ok (Zentraler Grenzwertsatz) Erwartungstreue? ok E[ˆx] = 1 n n i=1 E[x i] =< x >. Effizienz? Robustheit?

52 Mittelwert einer symmetrischen Verteilung Für symmetrische Verteilungen (die keine Gauß-Verteilungen sind) ist das Stichprobenmittel weder effizient noch robust. Wahrscheinlichkeitsdichte p(x) Zufallsvariable x f(x) g(x) h(x) 1 x 2 +1 Breit-Wigner-Verteilung: f (x) = 1 π Gauß-Verteilung: g(x) = 1 e x 2 /2 2π Doppelt-Exponentiell: h(x) = 1 2 e x

53 Mittelwert einer symmetrischen Verteilung Besser: Getrimmter Mittelwert (Mittelwert mit Abschneiden) Weglassen der (1 2r)n/2 größten und kleinsten Messwerte einer Stichprobe. Grenzfälle: r = 0,5: Mittelwert r 0: Median. Für eine unbekannte sym. Verteilung liefert r = 0,23 das robustete Verfahren mit einer Effizienz von 82%.

54 Mittelwert einer Gleichverteilung Die genaueste Schätzung ist gegeben durch: x = ˇx + ˆx 2 mit ˇx (ˆx) kleinster (größter) Wert der Stichprobe Häufigkeit absoluter Fehler 1e 05 1e 06 1e e e Mittelwert der Stichprobe 1e e+06 1e+07 1e+08 Größe der Stichprobe Die beste Schätzung liefert die bessere Varianz, die wie (1/n) 2 (statt (1/ n) 2 ) gegen Null geht.

55 Beispiel für eine Stichprobe Stichprobe von 100 Längenmessungen: l i /cm n i n i l i /cm n i li 2 /cm 2 18,9 1 18,9 357,21 19,1 1 19,1 364,81 19,2 2 38,4 737,28 19,3 1 19,3 372,49 19,4 4 77,6 1505,44 19,5 3 58,5 1140,75 19, ,4 3457,44 19, ,6 3104,72 19, ,8 4312,44 19, ,1 3564,09 20, ,0 2000,00 20, ,7 2828,07 20, ,6 3264,32 20, ,7 3708,81 20, ,4 2496,96 20,5 3 61,5 1260,75 20,6 2 41,2 848,72 20,7 2 41,4 856,98 20,8 2 41,6 865,28 20,9 2 41,8 873,62 21,0 4 84,0 1764,00 21,2 1 21,2 449, , ,62 N = n i = 100 Mittelwert? Varianz?

56 Beispiel für eine Stichprobe Stichprobe von 100 Längenmessungen: l i /cm n i n i l i /cm n i li 2 /cm 2 18,9 1 18,9 357,21 19,1 1 19,1 364,81 19,2 2 38,4 737,28 19,3 1 19,3 372,49 19,4 4 77,6 1505,44 19,5 3 58,5 1140,75 19, ,4 3457,44 19, ,6 3104,72 19, ,8 4312,44 19, ,1 3564,09 20, ,0 2000,00 20, ,7 2828,07 20, ,6 3264,32 20, ,7 3708,81 20, ,4 2496,96 20,5 3 61,5 1260,75 20,6 2 41,2 848,72 20,7 2 41,4 856,98 20,8 2 41,6 865,28 20,9 2 41,8 873,62 21,0 4 84,0 1764,00 21,2 1 21,2 449, , ,62 N = n i = 100 l = 1 ni l i = 20,028 cm N ( s 2 1 = ni li 2 1 ( ) ) 2 ni l i N 1 N = 0,2176 cm 2

57 Beispiel für eine Stichprobe Stichprobe von 100 Längenmessungen: l i /cm n i n i l i /cm n i li 2 /cm 2 18,9 1 18,9 357,21 19,1 1 19,1 364,81 19,2 2 38,4 737,28 19,3 1 19,3 372,49 19,4 4 77,6 1505,44 19,5 3 58,5 1140,75 19, ,4 3457,44 19, ,6 3104,72 19, ,8 4312,44 19, ,1 3564,09 20, ,0 2000,00 20, ,7 2828,07 20, ,6 3264,32 20, ,7 3708,81 20, ,4 2496,96 20,5 3 61,5 1260,75 20,6 2 41,2 848,72 20,7 2 41,4 856,98 20,8 2 41,6 865,28 20,9 2 41,8 873,62 21,0 4 84,0 1764,00 21,2 1 21,2 449, , ,62 N = n i = 100 l = 1 ni l i = 20,028 cm N ( s 2 1 = ni li 2 1 ( ) ) 2 ni l i N 1 N = 0,2176 cm 2 s l = l ± N = (20,028 ± 0,047) cm s = s s ± 2(N 1) = (0,466 ± 0,033) cm

58 Beispiel für eine Stichprobe "length.dat" Gauß(µ=20.028,σ=0.466) Gauß(µ=20.0,σ=0.5) 8 Häufigkeit Länge / cm

59 Die Maximum-Likelihood-Methode Stichprobe von n Werten x i. Zugrunde liegende Wahrscheinlichkeitsdichte f (x a) sei bekannt und normiert f (x a) dx = 1. Likelihood-Funktion: L(a) = f (x 1 a) f (x 2 a)... f (x n a) = n f (x i a) Die beste Schätzung für â entspricht dem Maximum der Likelihood-Funktion. Maximum wie üblich durch Ableiten und Nullsetzen: i=1 dl(a) da oder L(a k ) a k für alle k

60 Die Maximum-Likelihood-Methode In der Praxis meist Logarithmus der Likelihood-Funktion l(a) = ln L(a) bzw. negativer Logarithmus: F(a) = l(a) = n ln f (x i a) i=1 Natürlich muss F(a) minimiert werden. negative Log-Likelihood-Funktion

61 Die Maximum-Likelihood-Methode

62 Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der kleinsten Quadrate ist damit älter als die allgemeinere Maximum Likelihood-Methode. In diesem Kapitel werden direkte Messwerte mit der Eigenschaft von Zufallsvariablen (Daten) durchweg mit y i bezeichnet. n-malige Messung einer Größe x liefert also y 1, y 2,..., y n : y i = x + ɛ i ɛ i ist die Abweichung y i x (Messfehler).

63 Methode der kleinsten Quadrate Die gemessenen Werte weichen von dem wahren Wert um einen Betrag ab, der durch die Standardabweichung σ beschrieben wird. Im Sinne der Statistik sind die y i eine Stichprobe, welcher eine Wahrscheinlichkeitsdichte zugrunde liegt. Es soll eine funktionelle Beziehung (Modell) für die wahren Werte vorliegen. Dieses Modell kann von zusätzlichen Variablen a j (Parametern) abhängen. Für diese Parameter gibt es keine direkte Messung. Das Modell wird durch eine oder mehrere Gleichungen der Form f (a 1, a 2,..., a p, y 1, y 2,..., y n ) = 0 beschrieben. Diese Gleichungen heißen Bedingungen.

64 Methode der kleinsten Quadrate Das Modell kann benutzt werden, um Korrekturen y i für die Messwerte y i zu finden, so dass die korrigierten Werte die Bedingungen exakt erfüllen. Das Prinzip der kleinsten Quadrate verlangt, dass die Summe der Quadrate der Residuen y i den kleinstmöglichen Wert annimmt. Im einfachsten Fall unkorrelierter Daten, die alle die gleiche Standardabweichung haben, entspricht das der Forderung: S = n i=1 y 2 i = Minimum Man kann so Werte für die nicht gemessenen Parameter unter allgemeinen Bedingungen ermitteln indirekte Messung

65 Methode der kleinsten Quadrate Die Methode der kleinsten Quadrate hat einige optimale statistische Eigenschaften und führt oft zu einfachen Lösungen. Andere Vorschriften sind denkbar, führen aber im allgemeinen zu komplizierten Lösungen. n y i = Minimum oder max y i = Minimum i=1

66 Methode der kleinsten Quadrate Allgemeiner Fall: Daten werden beschrieben durch n-vektor y. Verschiedene Standardabweichungen und mit Korrelationen, beschrieben durch die Kovarianzmatrix V. Bedingung der kleinsten Quadrate in Matrixform: S = y T V 1 y Hierbei ist y der Residuenvektor.

67 Lineare kleinste Quadrate Beispiel: Im Weinanbau werden die jeweils im Herbst geernteten Erträge in Tonnen je 100 m 2 (t/ar) gemessen. Es ist bekannt, dass der Jahresertrag bereits im Juli ziemlich gut prognostiziert werden kann, und zwar durch die Bestimmung der mittleren Anzahl von Beeren, die je Traube gebildet worden sind. Jahr Ertrag (y i ) Cluster (x i ) ,6 116, ,2 82, ,5 110, ,2 97, ,2 115, ,7 80, ,8 125, ,9 116, ,7 117, ,1 93, ,4 107, ,4 122,30 Ertrag/(t/ar) y Clusterzahl x

68 Lineare kleinste Quadrate Anpassung einer Geraden f (x) = a + b x mit Hilfe von gnuplot: degrees of freedom (FIT_NDF) : 10 rms of residuals (FIT_STDFIT) = sqrt(wssr/ndf) : variance of residuals (reduced chisquare) = WSSR/ndf : Final set of parameters Asymptotic Standard Error ======================= ========================== a = / (76.23%) b = / (14.11%) correlation matrix of the fit parameters: a b a b

69 Bestimmung von Parameterwerten Bestimmung von Parameterwerten a aus Messungen anhand eines linearen Modells. Der Vektor a der Parameter hat p Elemente a 1, a 2,..., a p. Die Messwerte bilden den Vektor y von n Zufallsvariablen mit Elementen y 1, y 2,..., y n. Der Erwartungswert von y ist gegeben als Funktion der Variablen x der Form: y(x) = f (x, a) = a 1 f 1 (x) + a 2 f 2 (x) a p f p (x). Damit ist der Erwartungswert jeder Einzelmessung y i gegeben durch E[y i ] = f (x i, ā) = ȳ i wobei die Elemente von ā die wahren Werte des Parameters a sind.

70 Bestimmung von Parameterwerten Die Residuen r i = y i f (x i, a) haben für a = ā die Eigenschaften E[r i ] = 0 E[r 2 i ] = V [r i ] = σ 2 i. Die einzigen Annahmen hier sind Unverzerrtheit und eine endliche Varianz der Wahrscheinlichkeitsdichte der Residuen. Insbesondere ist es nicht zwingend nötig, dass sie gauß-verteilt ist.

71 Normalgleichungen im Fall gleicher Fehler Alle Daten sollen die gleiche Varianz haben und unkorreliert sein. Nach dem Prinzip der kleinsten Quadrate muss die Summe der Quadrate der Residuen in Bezug auf die Parameter a 1, a 2,..., a p minimiert werden: S = n i=1 r 2 i = n (y i a 1 f 1 (x i ) a 2 f 2 (x i )... a p f p (x i )) 2 i=1 Bedingungen für das Minimum: S n = 2 f 1 (x i ) (a 1 f 1 (x i ) + a 2 f 2 (x i ) a p f p (x i ) y i ) = 0 a 1 i= S n = 2 f p (x i ) (a 1 f 1 (x i ) + a 2 f 2 (x i ) a p f p (x i ) y i ) = 0 a p i=1

72 Normalgleichungen im Fall gleicher Fehler Die Bedingung kann in Form der sogenannten Normalgleichungen geschrieben werden a 1 f1 (x i ) a p f1 (x i )f p (x i ) = a 1 f2 (x i )f 1 (x i ) a p f2 (x i )f p (x i ) = y i f 1 (x i ) y i f 2 (x i )... a 1 fp (x i )f 1 (x i ) a p fp (x i ) 2 = y i f p (x i ) Die Schätzwerte von a 1, a 2,..., a p nach kleinsten Quadraten folgen als die Lösung dieser Normalgleichung.

73 Matrixschreibweise Matrixschreibweise und Matrixalgebra vereinfachen die Formulierung wesentlich. Die n p Werte f j (x i ) werden als Elemente einer n p Matrix aufgefasst. Die p Parameter a j und die n Messwerte y i bilden Spaltenvektoren. A = f 1 (x 1 ) f 2 (x 1 )... f p (x 1 ) f 1 (x 2 ) f 2 (x 2 )... f p (x 2 ) f 1 (x n ) f 2 (x n )... f p (x n ) a = a 1 a 2... a p y = y 1 y y n

74 Matrixschreibweise Der n-vektor der Resudien ist damit Die Summe S ist r = y Aa. S = r T r = (y Aa) T (y Aa) Bedingung für das Minimum = y T y 2a T A T y + a T A T Aa 2A T y + 2A T Aâ = 0 oder in der Matrixform der Normalgleichungen (A T A)â = A T y Die Lösung kann mit Standardverfahren der Matrixalgebra berechnet werden: â = (A T A) 1 A T y

75 Kovarianzmatrix der Parameter Die Kovarianzmatrix ist die quadratische n n-matrix var(y 1 ) cov(y 1, y 2 )... cov(y 1, y n ) V[y] = cov(y 2, y 1 ) var(y 2 )... cov(y 2, y n ) cov(y n, y 1 ) cov(y n, y 2 )... var(y n ) Hier ist die Kovarianzmatrix eine Diagonalmatrix: V[y] = σ σ σ 2

76 Kovarianzmatrix der Parameter Für eine lineare Beziehung â = By gilt die Standardformel der Fehlerfortpflanzung: V[â] = BV[y]B T mit B = (A T A) 1 A T wird daraus V[â] = (A T A) 1 A T V[y]A(A T A) 1 oder für den vorliegenden Fall gleicher Fehler einfach V[â] = σ 2 (A T A) 1

77 Quadratsumme der Residuen Die Summe Ŝ der Quadrate der Residuen im Minimum ist Ŝ = y T y 2â T A T y + â T A T A(A T A) 1 A T y = y T y â T A T y. Der Erwartungswert E[Ŝ] ist E[Ŝ] = σ2 (n p). Ist die Varianz der Messdaten nicht bekannt, so erhält man aus Ŝ den Schätzwert ˆσ 2 = Ŝ/(n p). Dies ist für große Werte von (n p) eine gute Schätzung.

78 Korrektur der Datenwerte Nach Berechnung der Parameter mit linearen kleinsten Quadraten können Werte der Funktion f (x) für beliebige x bestimmt werden durch ŷ(x) = f (x, â) = p â j f j (x). j=1 Speziell für die Werte x i, die zu den Messwerten y i gehören, ergeben sich die korrigierten Datenpunkte zu ŷ = Aâ. Fehlerfortplanzung liefert die Kovarianzmatrix V[ŷ] = AV[a]A T = σ 2 A(A T A) 1 A T

79 Der Fall unterschiedlicher Fehler Wenn die einzelnen Datenpunkte statistisch unabhängig sind, dann ist die Kovarianzmatrix σ V[y] = 0 σ σn 2 Der Ausdruck für die Summe der Residuenquadrate lautet nun: S = i r 2 i σ 2 i = Minimum Man führt die Gewichtsmatrix W(y) ein als inverse Matrix der Kovarianzmatrix 1/σ W(y) = V[y] 1 = 0 1/σ /σn 2

80 Der Fall unterschiedlicher Fehler Die Summe der Quadrate der gewichteten Residuen S = r T W(y)r = (y Aa) T W(y)(y Aa) muss nun bezüglich der Parameter minimiert werden. Es ergibt sich: â = (A T WA) 1 A T Wy V[â] = (A T WA) 1 Die Summe der Residuenquadrate für a = â hat die Form Ŝ = y T Wy â T A T Wy und den Erwartungswert E[Ŝ] = n p. Die Kovarianzmatrix der korrigierten Datenpunkte ist V[ŷ] = A(A T WA) 1 A T

81 Kleinste Quadrate in der Praxis: Geradenanpassung Geradenanpassung mit der Funktion y = f (x, a) = a 1 + a 2 x. Messwerte y i liegen an den genau bekannten Punkten x i vor. A = a = ( a1 a 2 1 x 1 1 x 2 1 x x n ) y = V = y 1 y 2 y 3... y n σ σ σ σ 2 n W = V 1 w ii = 1 σ 2 i

82 Kleinste Quadrate in der Praxis: Geradenanpassung Lösung: ( ) ( A T wi wi x WA = i S1 S wi x i wi xi 2 = x S x S xx ( ) ( ) A T wi y Wy = i Sy = wi x i y i ( S1 S x S x S xx ) ( a1 a 2 ) = S xy ( Sy S xy ) ) ( S1 S x S x S xx â = (A T WA) 1 A T Wy V[â] = (A T WA) 1 ) 1 = 1 ( Sxx S x D S x S 1 ) mit D = S 1 S xx S 2 x

83 Kleinste Quadrate in der Praxis: Geradenanpassung Die Lösung ist â 1 = (S xx S y S x S xy )/D â 2 = ( S x S y S 1 S xy )/D und die Kovarianzmatrix ist V[â] = 1 ( Sxx S x D S x S 1 ). Weiterhin ist die Summe der Residuenquadrate Ŝ = S yy â 1 S y â 2 S xy Für einen Wert ŷ = â 1 + â 2 x, berechnet an der Stelle x, ist die Standardabweichung die Wurzel aus der Varianz: V [ŷ] = V [â 1 ] + x 2 V [â 2 ] + 2xV [â 1, â 2 ] = (S xx 2xS x + x 2 S 1 )/D

84 Zusammenfassung In der klassischen Statistik werden Fehlerangaben in Form von Konfidenzbereiche gemacht. Vorsicht bei Zählexperimenten mit kleinen Raten: Poisson- statt Gauß-Verteilung (Schiefe, Erwartungstreue) Vorsicht bei Nicht-Gauß-Verteilung - insbesondere bei verzerrten (schiefen) Verteilungen. Statt dem kleinste Quadrate Verfahren sollte dann etwa das Maximum-Likelihood Verfahren Anwendung finden. Der Matrixformulismus für das kleinste Quadrate Verfahren ist ein sehr mächtiges Werkzeug. Effizenteste Parameterschätzung für lineare Modelle, beinhaltet Fehlerfortpflanzung, geeignet als Optimierungsverfahren auch für nicht-lineare Probleme.

85 Charakteristische Funktion Ist x eine reelle Zufallsvariable mit der Verteilungsfunktion F(x) und der Wahrscheinlichkeitsdichte f (x), so bezeichnet man als ihre charakteristische Funktion den Erwartungswert der Größe exp(ıtx): ϕ(t) = E[exp(ıtx)] also im Fall einer kontinuierlichen Variablen ein Fourier-Integral mit seinen bekannten Transformationseigenschaften: ϕ(t) = exp(ıtx) f (x)dx Insbesondere gilt für die zentralen Momente: λ n = E[x n ] = ϕ (n) (t) = d n ϕ(t) dt n = ϕ (n) (0) = ı n λ n x n f (x)dx x n exp(ıtx) f (x)dx

86 χ 2 -Verteilung Falls x 1, x 2,..., x n unabhängige Zufallsvariable sind, die alle einer Gauß-Wahrscheinlichkeitsdichte folgen mit Mittelwert 0 und Varianz 1, so folgt die Summe u = χ 2 = n i=1 x 2 i einer χ 2 -Verteilung f n (u) = f n (χ 2 ) mit n Freiheitsgraden. Die Wahrscheinlichkeitsdichte ist: ( 1 u ) n/ e u/2 f n (u) = Γ(n/2) Die Wahrscheinlichkeitsdichte f n (u) hat ein Maximum bei (n 2). Der Mittelwert ist n und die Varianz 2n.

87 χ 2 -Verteilung Γ(n) = (n 1)! Γ( 1 2 ) = π Γ(x + 1) = x Γ(x)

88 χ 2 -Verteilung

89 χ 2 -Verteilung Die Größe Q(χ 2 n) = 1 P(χ 2 n) = 1 F(χ 2 ) = 1 χ 2 0 f n (ν)dν gegen χ 2 für n Freiheitsgrade

90 χ 2 -Verteilung Die Größe Q(χ 2 n) = 1 P(χ 2 n) = 1 F(χ 2 ) = 1 χ 2 0 f n (ν)dν gegen χ 2 für n Freiheitsgrade

91 t-verteilung Die t-verteilung tritt auf bei Tests der statistischen Verträglichkeit eines Stichproben-Mittelwertes x mit einem vorgegebenen Mittelwert µ, oder der statistischen Verträglichkeit zweier Stichproben-Mittelwerte. Die Wahrscheinlichkeitsdichte der t-verteilung ist gegeben durch f n (t) = 1 ( ) (n+1)/2 Γ((n + 1)/2) 1 + t2 nπ Γ(n/2) n

92 t-verteilung Die Studentschen t-verteilungen f (t) (links) im Vergleich zur standardisierten Gauß-Verteilung (gestrichelt) sowie die integrierten Studentschen t-verteilungen t f (x)dx (rechts).

93 t-verteilung Quantile der t-verteilung, P = t f n(x)dx.

94 F -Verteilung Gegeben sind n 1 Stichprobenwerte einer Zufallsvariablen x und n 2 Stichprobenwerte derselben Zufallsvariablen. Die beste Schätzung der Varianzen aus beiden Datenkollektionen seien s1 2 und s2 2. Die Zufallszahl F = s2 1 s 2 2 folgt dann einer F-Verteilung mit (n 1, n 2 ) Freiheitsgraden. Es ist Konvention, dass F immer größer als eins ist. Die Wahrscheinlichkeitsdichte von F ist gegeben durch f (F) = ( n1 n 2 ) n1 /2 ( Γ((n 1 + n 2 )/2) Γ(n 1 /2)Γ(n 2 /2) F (n 1 2)/2 1 + n ) (n1 +n 2 )/2 1 F n 2

95 Quantile der F-Verteilung, Konfidenz = 0,68

96 Quantile der F-Verteilung, Konfidenz = 0,90

97 Quantile der F-Verteilung, Konfidenz = 0,95

98 Quantile der F-Verteilung, Konfidenz = 0,99

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen 2013-11-13 Statistik - Fehlerrechnung - Auswertung von Messungen TEIL I Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Literatur Eindimensionaler Fall: Grundbegriffe Wahrscheinlichkeitsverteilungen:

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =

, dt. $+ f(x) = , - + < x < +,  > 0.  2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) = 38 6..7.4 Normalverteilung Die Gauß-Verteilung oder Normal-Verteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebige reelle Zahlenwerte annehmen. Wir definieren sie durch die

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006

Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 1 3.34 1.1 Angabe Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 U sei auf dem Intervall (0, 1) uniform verteilt. Zeigen

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Statistische Methoden der Datenanalyse

Statistische Methoden der Datenanalyse Aktuelle Probleme der experimentellen Teilchenphysik (Modul P23.1.2b) Statistische Methoden der Datenanalyse Ulrich Husemann Humboldt-Universität zu Berlin Wintersemester 2010/2011 Vorstellung Vorlesung:

Mehr

Moderne Methoden der Datenanalyse WS 2010/11

Moderne Methoden der Datenanalyse WS 2010/11 Moderne Methoden der Datenanalyse WS 2010/11 1 Übungen Moderne Methoden der Datenanalyse WS 2010/11 Dr. Anze Zupanc Tutoren: Bastian Kronenbitter, Markus Röhrken Donnerstags, 15.30 FE/6 http://www-ekp.physik.uni-karlsruhe.de/~zupanc/ws1011/

Mehr

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer

Mehr

Von den Grundlagen der Monte-Carlo-Methode zur Simulation von Teilchenreaktionen und Teilchendetektoren

Von den Grundlagen der Monte-Carlo-Methode zur Simulation von Teilchenreaktionen und Teilchendetektoren Von den Grundlagen der Monte-Carlo-Methode zur Simulation von Teilchenreaktionen und Teilchendetektoren Michael Unrau HS WS 08/09 14 November 2008 HS 08/09 Monte-Carlo Methoden 14 November 2008 1 / 24

Mehr

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit Fehlerrechnung Inhalt: 1. Motivation 2. Was sind Messfehler, statistische und systematische 3. Verteilung statistischer Fehler 4. Fehlerfortpflanzung 5. Graphische Auswertung und lineare Regression 6.

Mehr

Anleitung zum Physikpraktikum für Oberstufenlehrpersonen Fehlerrechnung und Statistik (FR) Herbstsemester 2015

Anleitung zum Physikpraktikum für Oberstufenlehrpersonen Fehlerrechnung und Statistik (FR) Herbstsemester 2015 Anleitung zum Physikpraktikum für Oberstufenlehrpersonen Fehlerrechnung und Statistik (FR) Herbstsemester 2015 Physik-Institut der Universität Zürich Inhaltsverzeichnis 12 Fehlerrechnung und Statistik

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist Frage Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist k a F (x) =1 k>0,x k x Finden Sie den Erwartungswert und den Median der Dichte für a>1. (Bei

Mehr

Mini-Skript Wahrscheinlichkeitstheorie und Statistik

Mini-Skript Wahrscheinlichkeitstheorie und Statistik Mini-Skript Wahrscheinlichkeitstheorie und Statistik Peter Bühlmann Georg Grafendorfer, Lukas Meier Inhaltsverzeichnis 1 Der Begriff der Wahrscheinlichkeit 1 1.1 Rechenregeln für Wahrscheinlichkeiten........................

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

Grundprinzipien der Bayes-Statistik

Grundprinzipien der Bayes-Statistik Grundprinzipien der Bayes-Statistik Karl-Rudolf Koch Zusammenfassung: In drei wesentlichen Punkten unterscheidet sich die Bayes-Statistik von der traditionellen Statistik. Zunächst beruht die Bayes-Statistik

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Einführung in Statistik und Messwertanalyse für Physiker

Einführung in Statistik und Messwertanalyse für Physiker Gerhard Böhm, Günter Zech Einführung in Statistik und Messwertanalyse für Physiker SUB Göttingen 7 219 110 697 2006 A 12486 Verlag Deutsches Elektronen-Synchrotron Inhalt sverzeichnis 1 Einführung 1 1.1

Mehr

Teil I Beschreibende Statistik 29

Teil I Beschreibende Statistik 29 Vorwort zur 2. Auflage 15 Vorwort 15 Kapitel 0 Einführung 19 0.1 Methoden und Aufgaben der Statistik............................. 20 0.2 Ablauf statistischer Untersuchungen..............................

Mehr

Unsupervised Kernel Regression

Unsupervised Kernel Regression 9. Mai 26 Inhalt Nichtlineare Dimensionsreduktion mittels UKR (Unüberwachte KernRegression, 25) Anknüpfungspunkte Datamining I: PCA + Hauptkurven Benötigte Zutaten Klassische Kernregression Kerndichteschätzung

Mehr

Weiterbildungskurs Stochastik

Weiterbildungskurs Stochastik Hansruedi Künsch Seminar für Statistik Departement Mathematik, ETH Zürich 24. Juni 2009 Inhalt STATISTIK DER BINOMIALVERTEILUNG 1 STATISTIK DER BINOMIALVERTEILUNG 2 Fragestellungen Typische Fragestellungen

Mehr

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8 . Aufgabe: Für zwei verschiedene Aktien wurde der relative Kurszuwachs (in % beobachtet. Aus den jeweils 20 Quartaldaten ergaben sich die folgenden Box-Plots. Box-and-Whisker Plot Aktie Aktie 2-0,2 0,8,8

Mehr

Untersuchungen zum Thema Tracking Error

Untersuchungen zum Thema Tracking Error Untersuchungen zum Thema Tracking Error J. Fulmek 24. August 2003 1 Einleitung Im Folgenden werden folgende Punkte untersucht: 1. verschiedene in der Literatur übliche Definitionen des Tracking Errors

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Einführung in die Statistik

Einführung in die Statistik Meteorologisches Institut der Universität Bonn Skript zur Vorlesung Einführung in die Statistik Wintersemester 2004/2005 Andreas Hense Thomas Burkhardt Petra Friederichs Version: 31. Oktober 2005 1 Inhaltsverzeichnis

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Statistik, Datenanalyse und Simulation Skript zur Vorlesung von Dr. Rainer Wanke Zuletzt gedruckt am: 0. Mai 005 Bearbeitet von: Peter Otte & Pörsch Wintersemester 004/005 ii Inhaltsverzeichnis Wahrscheinlichkeit.

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Statistik im Bachelor-Studium der BWL und VWL

Statistik im Bachelor-Studium der BWL und VWL Max C. Wewel Statistik im Bachelor-Studium der BWL und VWL Methoden, Anwendung, Interpretation Mit herausnehmbarer Formelsammlung ein Imprint von Pearson Education München Boston San Francisco Harlow,

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester

Mehr

Grundlagen der Monte-Carlo-Methode

Grundlagen der Monte-Carlo-Methode Probieren geht über studieren Institut für experimentelle Kernphysik Karlsruher Institut für Technologie 16. November 2009 Übersicht Definitionen und Motivation 1 Definitionen und Motivation Typische Problemstellung

Mehr

Monty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen

Monty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen Monty Hall-Problem Wochen 3 und 4: Verteilungen von Zufallsvariablen US-amerikanische Fernseh-Show Let s make a deal, moderiert von Monty Hall: WBL 15/17, 04.05.2015 Alain Hauser

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

5. Schließende Statistik. 5.1. Einführung

5. Schließende Statistik. 5.1. Einführung 5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Einfache Statistiken in Excel

Einfache Statistiken in Excel Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum

Mehr

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Ausarbeitung des Seminarvortrags zum Thema

Ausarbeitung des Seminarvortrags zum Thema Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung

Mehr

Schätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N

Schätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 8.1 Schätzer für Lage- und Skalenparameter und Verteilungsmodellwahl Lageparameter (l(x + a) = l(x) + a): Erwartungswert EX Median von X

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Statistische Auswertung der Daten von Blatt 13

Statistische Auswertung der Daten von Blatt 13 Statistische Auswertung der Daten von Blatt 13 Problemstellung 1 Graphische Darstellung der Daten 1 Diskussion der Normalverteilung 3 Mittelwerte und deren Konfidenzbereiche 3 Signifikanz der Behandlung

Mehr

Monte-Carlo Simulation

Monte-Carlo Simulation Monte-Carlo Simulation Sehr häufig hängen wichtige Ergebnisse von unbekannten Werten wesentlich ab, für die man allerhöchstens statistische Daten hat oder für die man ein Modell der Wahrscheinlichkeitsrechnung

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen

Mehr

Grundlagen Wahrscheinlichkeitsrechnung, Statistik

Grundlagen Wahrscheinlichkeitsrechnung, Statistik Grundlagen Wahrscheinlichkeitsrechnung, Statistik Was ist Statistik? Wahrscheinlichkeit Grundgesamtheit und Verteilung Verteilung von Stichprobenparametern und Intervallschätzung Werkzeug Varianzanalyse

Mehr

P(A B) = P(A) + P(B) P(A B) P(A B) = P(A) + P(B) P(A B) Geometrisch lassen sich diese Sätze einfach nachvollziehen (siehe Grafik rechts!

P(A B) = P(A) + P(B) P(A B) P(A B) = P(A) + P(B) P(A B) Geometrisch lassen sich diese Sätze einfach nachvollziehen (siehe Grafik rechts! Frequentistische und Bayes'sche Statistik Karsten Kirchgessner In den Naturwissenschaften herrscht ein wahrer Glaubenskrieg, ob die frequentistische oder Bayes sche Statistik als Grundlage zur Auswertung

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen

Mehr

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam. Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.de 1 Gliederung 7 Weitere Krigingverfahren 7.1 Simple-Kriging 7.2 Indikator-Kriging

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Übung 2 28.02.2008 1 Inhalt der heutigen Übung Beschreibende Statistik Gemeinsames Lösen der Übungsaufgaben 2.1: Häufigkeitsverteilung 2.2: Tukey Boxplot 25:Korrelation

Mehr

12. Bivariate Datenanalyse. In den Kapiteln 4-11 wurden univariate Daten betrachtet:

12. Bivariate Datenanalyse. In den Kapiteln 4-11 wurden univariate Daten betrachtet: 12. Bivariate Datenanalyse Während einer nur Zahlen im Kopf hat, kann er nicht auf den Kausalzusammenhang kommen Anonymus In den Kapiteln 4-11 wurden univariate Daten betrachtet: Von univariaten Daten

Mehr

Physik im Studium. Physik I - IV. Theoretische Vorlesungen. Praktika. Vorlesungen für Fortgeschrittene. Praktika für Fortgeschrittene

Physik im Studium. Physik I - IV. Theoretische Vorlesungen. Praktika. Vorlesungen für Fortgeschrittene. Praktika für Fortgeschrittene Physik im Studium Physik I - IV Übungen Theoretische Vorlesungen Praktika Vorlesungen für Fortgeschrittene Praktika für Fortgeschrittene Einführung in die Physik Teil I: Einführung: Philosophisches und

Mehr

Herzlich Willkommen zur Vorlesung Statistik

Herzlich Willkommen zur Vorlesung Statistik Herzlich Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Kovarianz und Korrelation Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 3 5. November 2013 Beispiel: Aktiensplit (Aczel & Sounderpandan, Aufg. 14-28) Ein Börsenanalyst

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

Angewandte Statistik und Datenanalyse

Angewandte Statistik und Datenanalyse Emmerich Kneringer Angewandte Statistik und Datenanalyse WS 2010 704.025 Brauchbar fürs F-Praktikum 1 home page: physik.uibk.ac.at/fp1 Vortrag: Mo 4. Okt. 2010 14 30-17 00 RR 15 Übersicht Einführendes

Mehr

Grundlagen der Computer-Tomographie

Grundlagen der Computer-Tomographie Grundlagen der Computer-Tomographie Quellenangabe Die folgenden Folien sind zum Teil dem Übersichtsvortrag: imbie.meb.uni-bonn.de/epileptologie/staff/lehnertz/ct1.pdf entnommen. Als Quelle für die mathematischen

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Interne und externe Modellvalidität

Interne und externe Modellvalidität Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer

Mehr

Mathematikaufgaben zur Vorbereitung auf das Studium

Mathematikaufgaben zur Vorbereitung auf das Studium Hochschule für Technik und Wirtschaft Dresden (FH) Fachbereich Informatik/Mathematik Mathematikaufgaben zur Vorbereitung auf das Studium Studiengänge Informatik Medieninformatik Wirtschaftsinformatik Wirtschaftsingenieurwesen

Mehr

Lebensdauer eines x-jährigen

Lebensdauer eines x-jährigen Lebensdauer eines x-jährigen Sabrina Scheriau 20. November 2007, Graz 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Einleitung 3 2 Sterbewahrscheinlichkeiten 4 2.1 Definition und Ermittlung....................

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Klausur Statistik Lösungshinweise

Klausur Statistik Lösungshinweise Klausur Statistik Lösungshinweise Prüfungsdatum: 1. Juli 2015 Prüfer: Etschberger, Heiden, Jansen Studiengang: IM und BW Aufgabe 1 14 Punkte Ein Freund von Ihnen hat über einen Teil seiner Daten, die er

Mehr

Datenanalyse und Statistik

Datenanalyse und Statistik Datenanalyse und Statistik p. 1/44 Datenanalyse und Statistik Vorlesung 2 (Graphik I) K.Gerald van den Boogaart http://www.stat.boogaart.de Datenanalyse und Statistik p. 2/44 Daten Schätzung Test Mathe

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

Formelsammlung zu Multivariate Verfahren

Formelsammlung zu Multivariate Verfahren Institut für Statistik Gerhard Tutz, Moritz, Wolfgang Pößnecker Sommersemester 204 Formelsammlung zu Multivariate Verfahren Inhaltsverzeichnis Version 0804204 Diese Formelsammlung darf in der Klausur verwendet

Mehr

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008 Aufgabe 1 Ihnen liegt

Mehr

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Andreas Berlin 14. Juli 2009 Bachelor-Seminar: Messen und Statistik Inhalt: 1 Aspekte einer Messung 2 Mess-System-Analyse 2.1 ANOVA-Methode 2.2 Maße

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses. XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------

Mehr

Versuch: Zufälliges Ziehen aus der Population

Versuch: Zufälliges Ziehen aus der Population Wahrscheinlichkeit Ein Test diagnostiziert Kranke zu 99% richtig Gesunde zu 90% richtig 5% der Bevölkerung ist krank? Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test dies diagnostiziert?

Mehr

Hauptseminar. Monte-Carlo-Methoden, stochastische Schätzungen und deren Unsicherheit. Robert John 2.11.2011

Hauptseminar. Monte-Carlo-Methoden, stochastische Schätzungen und deren Unsicherheit. Robert John 2.11.2011 Hauptseminar Monte-Carlo-Methoden, stochastische Schätzungen und deren Unsicherheit Robert John 1 Inhalt Herkunft Stochastische Schätzung Monte-Carlo-Methode Varianzreduktion Zufallszahlen Anwendungsgebiete

Mehr

Hinweise zur Fehlerrechnung im Grundpraktikum der Physik

Hinweise zur Fehlerrechnung im Grundpraktikum der Physik Grundpraktikum der Physik Hinweise zur Fehlerrechnung im Grundpraktikum der Physik Sascha Hankele sascha@hankele.com Patrick Paul patrick.paul@uni-ulm.de 11. Mai 2011 Inhaltsverzeichnis 1 Einführung und

Mehr

Genexpression. Expression eines einzelnen Gens. Expressionsmessung. Genexpressionsmessung. Transkription (Vorgang) Genexpression

Genexpression. Expression eines einzelnen Gens. Expressionsmessung. Genexpressionsmessung. Transkription (Vorgang) Genexpression Genexpressionsmessung Genexpression Transkription (Vorgang) Genexpression (quantitativ) Wieviele m-rna Moleküle eines bestimmten Gens sind in den Zellen? Genomische Datenanalyse 8. Kapitel Wie mißt man

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Extremwertverteilungen

Extremwertverteilungen Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen

Mehr

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Institut für Stochastik Prof. r. N. Bäuerle ipl.-math. S. Urban Lösungsvorschlag 3. Übungsblatt zur Vorlesung Finanzmathematik I Aufgabe as endnutzenoptimale Aktienportfolio bei Exp-Nutzen Wir betrachten

Mehr

Lernzettel Mathe Inhaltsverzeichnis

Lernzettel Mathe Inhaltsverzeichnis Lernzettel Mathe Inhaltsverzeichnis Aufgabe 1 - Vollständige Induktion 2 Aufgabe 2 - Grenzwertbestimmung 2 Aufgabe 3 - Lin/Log 2 Aufgabe 4 - Barwert/Endwert 3 Aufgabe 5 - Maximalstellen, steigend/fallend

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Die Monte-Carlo-Methode mit Pseudo- und Quasi-Zufallszahlen

Die Monte-Carlo-Methode mit Pseudo- und Quasi-Zufallszahlen Die Monte-Carlo-Methode mit Pseudo- und Quasi-Zufallszahlen Marco A. Harrendorf Hauptseminar Methoden der experimentellen Teilchenphysik WS 2011/2012 Karlsruhe Institut für Technologie (KIT) 25.11.2011

Mehr

Monte Carlo Simulationen

Monte Carlo Simulationen Monte Carlo Simulationen Erkenntnisse durch die Erschaffung einer virtuellen Welt Stefan Wunsch 31. Mai 2014 INSTITUT FÜR EXPERIMENTELLE KERNPHYSIK (IEKP) KIT Universität des Landes Baden-Württemberg und

Mehr

Nachholklausur STATISTIK II

Nachholklausur STATISTIK II Nachholklausur STATISTIK II Name, Vorname: Matrikel-Nr.: Die Klausur enthält zwei Typen von Aufgaben: T e i l A besteht aus Fragen mit mehreren vorgegebenen Antwortvorschlägen, von denen mindestens eine

Mehr

Versuchsplanung. Teil 1 Einführung und Grundlagen. Dr. Tobias Kiesling <kiesling@stat.uni-muenchen.de> Einführung in die Versuchsplanung

Versuchsplanung. Teil 1 Einführung und Grundlagen. Dr. Tobias Kiesling <kiesling@stat.uni-muenchen.de> Einführung in die Versuchsplanung Versuchsplanung Teil 1 Einführung und Grundlagen Dr. Tobias Kiesling Inhalt Einführung in die Versuchsplanung Hintergründe Grundlegende Prinzipien und Begriffe Vorgehensweise

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Vergleich zweier Stichproben, nichtparametrische Tests Prof. Dr. Achim Klenke http://www.aklenke.de 11. Vorlesung: 27.01.2012 1/86 Inhalt 1 Tests t-test 2 Vergleich zweier

Mehr

Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik

Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Dozent: Volker Krätschmer Fakultät für Mathematik, Universität Duisburg-Essen, WS 2012/13 1. Präsenzübung Aufgabe T 1 Sei (Z 1,...,

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr