9 Die Normalverteilung
|
|
|
- Martha Brauer
- vor 9 Jahren
- Abrufe
Transkript
1 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler, Humboldt-Universität zu Berlin
2 ϕ(x), Φ(x) sind tabelliert! ϕ(x) = ϕ( x) Φ(x) = 1 Φ( x) Frage: Für welches x gilt: Φ(x) = α? x = Φ 1 (α) α-quantil. Φ 1 (α) als Funktion: Quantilfunktion Programm: Descr_normal.sas X N(0, 1). P(a < X < b) = Φ(b) Φ(a). 332 W.Kössler, Humboldt-Universität zu Berlin
3 Satz 22 Es gilt: X N(0, 1) σx + µ N(µ,σ 2 ) X N(µ,σ 2 ) αx + β N(αµ + β,α 2 σ 2 ) X N(µ,σ 2 ) X µ N(0, 1) σ Beweis: : Wir zeigen nur 1. ( ). Sei X N(0, 1). u µ P(σX + µ x) = P(X x µ σ ) = Φ(x µ σ ) 1 = t, du = dt. σ σ = = x µ σ x 1 2π e t2 /2 dt 1 2πσ 2 e (u µ)2 /(2σ 2) du 333 W.Kössler, Humboldt-Universität zu Berlin
4 9.2 Berechnen von Wahrscheinlichkeiten Vergleichen Sie a) σ 2 fest, µ verschieden b) µ fest, σ 2 verschieden Satz 23 : Sei X 1 N(µ,σ 2 1),X 2 N(µ,σ 2 2), σ 2 1 < σ 2 2 und a > 0. Dann gilt: P(µ a < X 1 < µ + a) > P(µ a < X 2 < µ + a). 334 W.Kössler, Humboldt-Universität zu Berlin
5 Beweis: P(µ a < X 1 < µ + a) = P( a σ 1 < X 1 µ σ 1 < a σ 1 ) = Φ( a σ 1 ) Φ( a σ 1 ) > Φ( a σ 2 ) Φ( a σ 2 ) = P(µ a < X 2 < µ + a). Programm: Descr_Normal_1.sas 335 W.Kössler, Humboldt-Universität zu Berlin
6 Beispiel: X 1 N(10, 4),X 2 N(10, 9),a = 1. P(9 < X 1 < 11) = Φ( = Φ( 1 2 ) Φ( 1 2 ) ) Φ( 9 10 ) 2 = Φ( 1 2 ) (1 Φ(1 2 )) = 2 Φ( 1 2 ) 1 = = W.Kössler, Humboldt-Universität zu Berlin
7 Programm: P(9 < X 2 < 11) = Φ( Descr_Normal_2.sas = Φ( 1 3 ) Φ( 1 3 ) ) Φ( 9 10 ) 3 = Φ( 1 3 ) (1 Φ(1 3 )) = 2 Φ( 1 3 ) 1 = = W.Kössler, Humboldt-Universität zu Berlin
8 Für die Berechnung der Wktn. P(X < x) bei Standard Normalverteilung existieren Programme und Tabellen. Zu beachten: x 0. In diesem Fall kann der Wert für P(X < x) direkt aus der Tabelle abgelesen werden. x < 0. P(X < x) = Φ(x) = 1 Φ( x), z.b. P(X < 1) = Φ( 1) = 1 Φ(1) W.Kössler, Humboldt-Universität zu Berlin
9 P(a < X < b) = Φ(b) Φ(a), z.b. P( 1 x 1) = Φ(1) Φ( 1) = Φ(1) (1 Φ(1)) = 2Φ(1) Bsp. 52 Y N(0, 1): P(Y < 0) = 1 2 (lt. Tabelle); X N(1, 2 2 ): P(X < 0) = Φ ( Φ ( 1 2) = ) = Φ ( 1 2) = 339 W.Kössler, Humboldt-Universität zu Berlin
10 Def. 32 Sei die Verteilungsfunktion F und die Wkt. p gegeben. Ein Wert x p mit p = P(X < x p ) = F(x p ) heißt p-quantil der Zufallsvariablen X, der Verteilungsfunktion (oder nur der Verteilung) F. Bsp. 53 Sei Y N(0, 1). Gesucht ist das p = 0.95-Quantil von Y. Für die Standard-Normalverteilung kann man aus der Tabelle für p = 0.95 den Wert x p (0, 1) ablesen. 340 W.Kössler, Humboldt-Universität zu Berlin
11 Sei X N(µ,σ 2 ). Bestimmen das p-quantil x p (µ,σ): ( X µ p = P(X < x p (µ,σ)) = P < x ) p(µ,σ) µ σ σ D.h. = P(Y < x p (0, 1)), Y N(0, 1). x p (0, 1) = x p(µ,σ) µ, σ woraus durch Umstellen folgt: x p (µ,σ) = σ x p (0, 1) + µ. 341 W.Kössler, Humboldt-Universität zu Berlin
12 9.3 k σ Intervalle Def. 33 Für eine normalverteilte Zufallsvariable X N(µ,σ) ist [µ kσ,µ + kσ] ein k σ Intervall, k Z +. Interessant sind dabei die Wahrscheinlichkeiten: P(µ kσ X µ + kσ). P(X [µ kσ,µ + kσ]) = Φ ( µ+kσ µ σ = Φ(k) Φ( k) ) ( Φ µ kσ µ ) σ = Φ(k) (1 Φ(k)) = 2 Φ(k) 1 P(X k σ Intervall) = 2 Φ(k) W.Kössler, Humboldt-Universität zu Berlin
13 Bsp. 54 k σ Intervalle für k = 1,...,5 gilt: k 2 Φ(k) Bsp. 55 Ein Zeitungsverkäufer sieht die Nachfrage X nach einer Tageszeitung als angenähert normalverteilt an. Das 2 σ Intervall sei [322, 408]. Wie groß ist die Wkt., daß mindestens 400 Exemplare der Zeitung verkauft werden? 343 W.Kössler, Humboldt-Universität zu Berlin
14 Die Frage ist also: P(X 400) =? Nach Voraussetzung gilt nun: 322 = µ 2σ, 408 = µ + 2σ. Wir addieren beide Gleichungen und erhalten: 730 = 2µ = µ = 365. Durch Subtraktion der ersten von der zweiten Gleichung erhalten wir dann: 86 = 4σ = σ = 21, W.Kössler, Humboldt-Universität zu Berlin
15 P(X 400) = 1 P(X < 400) = 1 Φ ( ) 400 µ σ = 1 Φ ( ) Φ(1.63) = 0.05 Wir sehen also: Hat man ein k σ Intervall gegeben (und es wird Normalverteilung angenommen), so ist es möglich, jede andere Wahrscheinlichkeit auszurechnen. Anwendung z.b. bei der Untersuchung von Toleranzen bei Werkstückmaßen oder bei Gewichtseinlagen von Gerichten. 345 W.Kössler, Humboldt-Universität zu Berlin
16 9.4 Besonderheiten der Normalverteilung Zentraler Grenzwertsatz Seien X i unabhängig, identisch verteilt, EX i = µ, Var X i = σ 2. X n = 1 n n i=1 X i Z n := n X n µ σ Z, Z N0, 1). Beweis: siehe Grenzwertsätze. 346 W.Kössler, Humboldt-Universität zu Berlin
17 9.4.2 Fehlertheorie Satz 24 Fehler sind unter folgenden Annahmen (asymptotisch) normalverteilt: V1: Jeder Fehler ist Summe einer sehr großen Anzahl sehr kleiner, gleich großer Fehler, die verschiedene Ursachen haben. V2: Die verschiedenen Fehlerkomponenten sind unabhängig. V3: Jede Fehlerkomponente ist mit Wkt. 0.5 positiv und mit Wkt. 0.5 negativ. 347 W.Kössler, Humboldt-Universität zu Berlin
18 Beweis: : Seien ɛ j, j = 1,...,n die Fehlerkomponenten. V3 P(ɛ j = ±ɛ) = 1 2, d.h. Eɛ j = 0, varɛ j = ɛ 2 V1 Gesamtfehler X = j ɛ j, also E(X) = var(x) = n j=1 n j=1 E(ɛ j ) = 0 var(ɛ j ) = nɛ 2 =: σ 2 Charakteristische Funktion von ɛ j : φ ɛj (t) = E(e itɛ j ) = 1 2 (eitɛ + e itɛ ) = k=0 (itɛ) 2k (2k)! 348 W.Kössler, Humboldt-Universität zu Berlin
19 Charakteristische Funktion von X: n φ X (t) = φ ɛj (t) j=1 = (1 t2 2! ɛ2 + t4 4! ɛ4 + ) n ( t 2 σ 2 = 1 2! n + o(1 n )) n ( t 2 σ 2 /2!) n (1) = 1 + o n n n e t2 σ 2 /2 Das ist die char. Fkt. von N(0,σ 2 ) 349 W.Kössler, Humboldt-Universität zu Berlin
20 9.4.3 Maximale Entropie bei gegebenen Mittelwert µ und Varianz σ 2. f: Wkt.dichte auf (, ). ( ) xf(x)dx = µ, (x µ) 2 f(x)dx = σ 2 Entropie: H(f) := f(x) log f(x)dx ist zu maximieren unter den obigen Bedingungen (*). = f =Normaldichte. 350 W.Kössler, Humboldt-Universität zu Berlin
21 Satz 25 : Eine Dichtefunktion, die die Entropie unter den obigen Bedingungen maximiert ist normal. Zum Beweis verwenden wir die Jensensche Ungleichung: 351 W.Kössler, Humboldt-Universität zu Berlin
22 Lemma 26 (Jensensche Ungleichung für konkave Funktionen) Es sei g eine differenzierbare und konkave Funktion, und sei X eine zufällige Variable. Dann gilt: Eg(X) g(ex). Beweis: Sei T(x) die Tangente an die Kurve der Funktion g im Punkt x 0, g(x) T(x) = g(x 0 ) + g (x 0 ) }{{} Anstieg der Kurve in x 0 (x x 0 ). Wir setzen nun x := X und x 0 := EX und erhalten: g(x) g(ex) + g (EX) (X EX). 352 W.Kössler, Humboldt-Universität zu Berlin
23 Daraus folgt: Eg(X) E(g(EX) + g (EX) (X EX)) = g(ex) + g (EX) E(X EX) }{{} =0 = g(ex) Beweis: (des Satzes) Seien p und q beliebige Dichten. Da die Logarithmus-Funktion konkav ist folgt aus der Jensenschen 353 W.Kössler, Humboldt-Universität zu Berlin
24 Ungleichung: ln ( q p (x)) p(x)dx = E p ln ( q p (X)) (q lne p p (X)) ( q = ln p (x)p(x)dx) = ln ( q(x)dx ) = ln 1 = 0. Daraus folgt: H(p) = p ln p dx p ln q dx 354 W.Kössler, Humboldt-Universität zu Berlin
25 Wir wählen q wie folgt: ln q = α + β(x µ) + γ(x µ) 2, wobei α,β,γ so gewählt sind, daß q Dichte und q (µ,σ 2 ). Also H(p) p ln q dx = p(x) ( α + β(x µ) + γ(x µ) 2) dx = (α + γσ 2 ) feste obere Schranke für die Entropie. 355 W.Kössler, Humboldt-Universität zu Berlin
26 Diese Schranke wird angenommen für p = q, also ln p = α + β(x µ) + γ(x µ) 2 p = e α+β(x µ)+γ(x µ)2 Offen: Gibt es α,β,γ mit p Dichte und p (µ,σ 2 )? Antwort: ja, α = ln( 2πσ),β = 0,γ = 1 2σ W.Kössler, Humboldt-Universität zu Berlin
27 9.4.4 Die Summe normalverteilter Zufallsvariablen ist normalverteilt. Satz 27 Seien X 1 N(µ 1,σ1) 2 X 2 N(µ 2,σ2) 2 unabhängig. Dann: X 1 + X 2 N(µ 1 + µ 2,σ1 2 + σ2) 2 Beweis: : (allgemeiner für n Zufallsvariablen) Seien X j, i = j,...,n Zufallsvariablen mit X j N(µ j,σ 2 j). 357 W.Kössler, Humboldt-Universität zu Berlin
28 Charakteristische Funktion von X = n j=1 : φ X (t) = n j=1 e itµ j σ 2 j t2 /2 = e itµ σ2 t 2 /2 wobei µ = µ j,σ 2 = σ 2 j X (µ,σ 2 ) 358 W.Kössler, Humboldt-Universität zu Berlin
29 9.4.5 Treffen einer Zielscheibe Satz 28 Sei (X, Y ) zweidimensionale Zufallsvariable. Folgende Annahmen seien erfüllt: V1: Die Randverteilungen von X und Y seien stetig V2: Die Dichte h(x,y) von (X,Y ) hängt nur vom Abstand x 2 + y 2 vom Nullpunkt ab (Radialsymmetrie) V3: Die Fehler in x- und y-richtung sind unabhängig. Sei Z die zufällige Abweichung in beliebiger Richtung. Dann ist Z N(0,σ 2 ). Beweis: siehe Abschnitt W.Kössler, Humboldt-Universität zu Berlin
Die Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2
Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten
Stetige Standardverteilungen
Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung
7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Statistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
7.4 Charakteristische Funktionen
7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler
6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung
Einführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Kapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Biostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
Gegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^2],{x,0,10}] 76
4. Normalverteilung Gauß'sche Glockenkurve: P(a X b) = b 1 x 1 a e dx 1 0.8 0.6 0.4 0. 4 6 8 10 Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^],{x,0,10}] 76 Zentraler Grenzwertsatz: Es sei X 1, X,... eine
Statistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x).
Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x). 2. Wahrscheinlichkeit-Transformation: Sei Y eine Zufallsvariable
Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 017/18 Andreas Eberle, Maximilian Fels Klausur,,Einführung in die W theorie Bitte diese Felder in Druckschrift ausfüllen Name: Matrikelnr.: Vorname: Studiengang:
13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
Statistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Wirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Statistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
Biostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
3 Stetige Zufallsvariablen
3 Stetige Zufallsvariablen Eine Zufallsvariable heißt stetig, falls zu je zwei Werten a < b auch jeder Zwischenwert im Intervall [a, b] möglich ist Beispiele: X = Alter, X = Körpergröße, X = Temperatur,
Wahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Stochastik Musterlösung 4
ETH Zürich HS 218 RW, D-MATL, D-MAVT Prof. Marloes H. Maathuis Koordinator Dr. Marvin S. Müller Stochastik Musterlösung 4 1. Die Zufallsvariable, die die Anzahl eingehender Telefonanrufe in einer Telefonzentrale
Musterlösung zu Serie 8
Dr. Markus Kalisch Statistik I für Biol./Pharm. Wiss./HST) FS 15 Musterlösung zu Serie 8 1. a) Damit fx) eine Dichte ist, muss die Fläche des Dreiecks gleich 1 sein. Es muss also gelten c = 1. Daraus folgt
Wahrscheinlichkeit & Statistik Musterlösung Serie 7
ETH Zürich FS 4 D-MATH Koordinator Prof. Dr. J. Teichmann Mayra Bermúdez C. Wahrscheinlichkeit & Statistik Musterlösung Serie 7. a) P[t < T t + h T > t] λ(t) lim h h P[{t < T t + h} {T > t}] lim h P[T
Standardnormalverteilung
Standardnormalverteilung 1720 erstmals von Abraham de Moivre beschrieben 1809 und 1816 grundlegende Arbeiten von Carl Friedrich Gauß 1870 von Adolphe Quetelet als "ideales" Histogramm verwendet alternative
(6.29) Z X. Die standardnormalverteilte Zufallvariable Z, Z ~ N(0,1), weist den Erwartungswert (6.30) E(Z) = 0 und die Varianz (6.31) V(Z) = 1 auf.
Standardnormalverteilung Da die arameter μ und σ beliebige reelle Zahlenwerte bw. beliebige positive reelle Zahlenwerte (σ >0) annehmen können, gibt es unendlich viele Normalverteilungen. Die Dichtefunktion
Wahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
Klausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
Fit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Wahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol [email protected] Markus Höchstötter [email protected] Stetige Verteilungen Definition: Sei
Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II,
Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf 1 Was sollen Sie heute lernen? 2 Agenda Wiederholung stetige Renditen deskriptive Statistik Verteilungsparameter
Stochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Stetige Verteilungen, Unabhängigkeit & ZGS
Mathematik II für Biologen Stetige Verteilungen, & ZGS 26. Juni 2009 Stetige Verteilungen, & ZGS Wiederholung Stetige Zufallsvariable Definition Eigenschaften, Standardisierung Zusammenhang von Poisson-
Stetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
Zulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
TU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
Einführung in die angewandte Stochastik
Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,
0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte
1.5.4 Quantile und Modi
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
Statistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
Normalverteilung. Erwartungswert, Median und Modus sind identisch. Symmetrieeigenschaft um den Erwartungswert
Normalverteilung Stetige Wahrscheinlichkeitsverteilung, die zahlreiche natur, wirtschafts und sozialwissenschaftliche Merkmalsausprägungen mit guter Näherung abbilden kann und somit von elementarer Bedeutung
Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen
Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen
2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
Vorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Beispiel 7.5.1: Es werden drei ideale Münzen geworfen, und der Gewinn sei X := Anzahl von W. In Beispiel 7.4.1 hatten wir dazu eine Wahrscheinlichkeitverteilung ermittelt: X
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
Wahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. P. Bühlmann ETH Zürich Winter 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete
