Multivariate Verteilungen. Gerhard Tutz LMU München
|
|
- Kornelius Vogel
- vor 5 Jahren
- Abrufe
Transkript
1 Multivariate Verteilungen Gerhard Tutz LMU München
2 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14
3 INHALTSVERZEICHNIS Abb. 1: Übersicht über multivariate Verteilungen
4 1 MULTIVARIATE NORMALVERTEILUNG 3 1 Multivariate Normalverteilung Ein Zufallsvektor x = (X 1,..., X p ) heißt (nicht entartet) multivariat normalverteilt, x N p (µ, Σ), wenn die Dichte gegeben ist durch { 1 f(x) = (π) 1/ exp 1 } Σ 1/ (x µ)t Σ 1 (x µ), wobei µ T = (µ 1,..., µ p ) = E(x T ) den Erwartungswert und Σ = cov(x) die Kovarianzmatrix des Zufallsvektors x bezeichnet. Vorausgesetzt ist, dass Σ positiv definit ist, Σ bezeichnet die Determinante der Kovarianzmatrix. Alternativ lässt sich die Normalverteilung charakterisieren durch die Projektionen. Ein Zufallsvektor ist normalverteilt, wenn a T x eindimensional normalverteilt ist für jedes a IR p (Für a = wird die entartete Verteilung zugelassen). Faßt man a T x als Projektion auf den Vektor a auf, ergibt sich damit, dass jede beliebige Projektion einer multivariaten Normalverteilung eine eindimensionale Normalverteilung ergibt. Isodensiten Die Isodensiten oder Höhenlinien sind diejenigen Kurven, die dieselbe Dichte besitzen. Für die Normalverteilung sind die Isodensiten Ellipsoide, die bestimmt sind durch wobei c eine beliebige Konstante ist. Die Spektralzerlegung von Σ liefert (x µ) T Σ 1 (x µ) = c, Σ = PLP T und Σ 1 = PL 1 P T, wobei P die orthogonale Matrix der orthonormalen Eigenvektoren ist, und L = Diag (λ 1,..., λ p ) die Diagonalmatrix der Eigenwerte. Damit ergibt sich c = (x µ) T PL 1/ L 1/ P T (x µ) = y T L 1 y = p y i λ i,
5 1 MULTIVARIATE NORMALVERTEILUNG 4 = c ist eine Ellipsoiden- wobei y = P T (x µ). Die Gleichung p yi λ i gleichung mit den Hauptachsenlängen λ i c. Seien die Eigenvektoren bestimmt durch P = (v 1,..., v p ), so sind die Komponenten von y bestimmt durch y = (v T 1 (x µ),..., v T p (x µ)), sind also Projektionen von x µ auf die Eigenwerte v 1,..., v p. Einige Eigenschaften: 1. Gilt x N p (µ, Σ), dann ist y = Ax + b mit (q p) Matrix A und (q 1) Vektor b wiederum normalverteilt mit y N q (Aµ + b, AΣA T ).. Gilt x N p (µ, Σ), dann ist y = Σ 1/ (x µ) standardnormalverteilt, d.h. y N p (, I). Die quadratische Form (x µ)σ 1 (x µ) ist damit χ verteilt, (x µ)σ 1 (x µ) χ (p). 3. Sei x N(µ, Σ) partitioniert in x T = (x T 1, xt ) mit zugehörigen Partitionen µ T = (µ T 1, µ T ), = ( Σ 11 Σ 1 Dann gilt für die bedingte Verteilung wobei Σ 1 Σ ) x x 1 N(µ.1, Σ.1 ), µ.1 = µ + Σ 1 Σ 1 11 (x 1 µ 1 ), Σ.1 = Σ Σ 1 Σ 1 11 Σ 1. Für den Spezialfall x = y (eindimensional), x T 1 = (x 1,..., x p 1 ) gilt Σ = σ y, Σ 1 = (cov(y, x 1 ),..., cov(y, x p )) = Σ T 1 und daher mit σ yxi = cov(y, x i ).
6 1 MULTIVARIATE NORMALVERTEILUNG 5 µ.1 = E(y) + = E(y) p σ yxi (x i µ i )/σy p σ yxi µ i /σy + Σ.1 = σ y Σ 1 Σ 1 11 Σ 1. p σ yxi σy x i Abb. : Zweidimensionale Normalverteilungsdichte für unkorrelierte Merkmale, ρ =, mit µ 1 = µ =, σ 1 = σ = Abb. 3: Zweidimensionale Normalverteilungsdichte, ρ =.8, µ 1 = µ =, σ 1 = σ = 1.
7 1 MULTIVARIATE NORMALVERTEILUNG Abb. 4: Zweidimensionale Normalverteilungsdichte, ρ =.8, µ 1 = µ =, σ 1 = σ = 1.
8 WISHART VERTEILUNG 7 Wishart Verteilung Die Wishart Verteilung ist für Zufallsmatrizen definiert, d.h. für Matrizen, deren sämtliche Komponenten Zufallsvariablen sind. Seien x 1,..., x m N p (, Σ) und unabhängig. Man betrachtet die (p p) Matrix M = m x i x T i = X T X, wobei X = Die (p p) Matrix M = m x i x T i Parametern S und m, M W p (Σ, m). x T 1. x T m. besitzt eine Wishart Verteilung mit den Die Standardform der Verteilung liegt vor, wenn Σ = I gilt. Gilt M = m x i x T i W (Σ, m) erhält man für Σ 1/ MΣ 1/ = m (Σ 1/ x i )(Σ 1/ x i ) T W p (I, m). Anwendung: SSP Matrix X besitzt die Form einer Datenmatrix mit m unabhängigen Wiederholungen einer p dimensionalen normalverteilten Größe. M ist daher die SSP Matrix (Matrix of sums of squares and products). Sei x T i = (x i1,..., x im ), dann gilt x T X = 1. = [x (1),..., x (m) ], x T m wobei x T (j) = (x 1j,..., x mj ) zur Komponente j gehört.
9 WISHART VERTEILUNG 8 Man erhält M = (m ij ) = X T X = x T (1). x T (p) [x (1),..., x (p) ] = x T (1) x (1) x T (1) x ()... x T (1) x (p) x T () x (1). x T (p) x (1) x T (p) x (p) mit x T (j) x (j) = x T (j) x (s) = m x ij. m x ij x is. Empirische Varianz Sind z 1,..., z m unabhängige Wiederholungen von N p (µ, Σ), dann ist z = (z z m )/m ( normalverteilt mit N p (µ, Σ/n) und z 1 z,..., z m z sind verteilt wie N, m 1 ) m Σ, allerdings nicht mehr unabhängig. Die empirische Kovarianzmatrix S = 1 m m (z i z)(z i z) T besitzt für x i = z i x die Struktur der Matrix M. Man erhält als Verteilung ms W p (Σ, m 1), d.h. in mσ sind nur m 1 unabhängige Komponenten enthalten.
10 WISHART VERTEILUNG 9 Eigenschaften: 1. Für p = 1 gilt M = m x i, wobei x i N(, σ ), so dass M/σ = m (x i /σ) eine χ (m) Verteilung besitzt. Die Wishart Verteilung W 1 (σ, m) ist somit äquivalent zur σ χ (m) Verteilung.. Gelte M = X T X W p (Σ, m) und B sei (p q) Matrix, dann gilt mit Y = XB B T MB = B T X T XB = Y T Y W q (B T ˆΣB, m). 3. Als Spezialfall von () ergibt sich die Verteilung von quadratischen Formen. Gilt M W p ( ˆΣ, m) und a ist fester Vektor mit a T ˆΣa, dann gilt a T Ma a T ˆΣa χ (m) = W 1 (a T ˆΣa, m). 4. Gilt M 1 W p ( ˆΣ, m 1 ), M W p ( ˆΣ, m ) und M 1 und M sind unabhängig, dann gilt M 1 + M W p ( ˆΣ, m 1 + m ). 5. Sei X aus n unabhängigen Ziehungen aus N p (, Σ) konstruiert und C sei symmetrische (n n) Matrix. Die Matrix Σ T CX besitzt eine Wishart Verteilung, genau dann, wenn C idempotent ist. Es gilt dann X T CX W p (Σ, r) mit r = rg(c) = tr(c). 6. Als Spezialfall von (5) ergibt sich für die empirische Kovarianzmatrix S = 1 n XT HX mit H = I 1 n 1 n1 T n die Aussage ns W (Σ, n 1), da die Zentrierungs Matrix H den Rang n 1 besitzt.
11 WISHART VERTEILUNG 1 Funktionen von Wishart Verteilungen: Seien A W p (I, m), B W p (I, n), m p dann gilt 1. Λ = A Λ(p, m, n) A + B. Der größte Eigenwert λ von (A + B) 1 B besitzt eine Verteilung mit den Eigenschaften θ(p, m, n) θ(1, m, n) 1 θ(1, m, n) θ(p, m, 1) 1 θ(p, m, 1) = = 1 Λ(1, m, n) Λ(1, m, n) 1 Λ(p, m, 1) Λ(p, m, 1) n F (n, m) m p F (p, m p + 1). m p + 1 Ein anderer Zugang ergibt sich für den größten Eigenwert λ von A 1 B, da λ = λ/(1 + λ) ein Eigenwert von (A + B) 1 B ist. Damit erhält man θ = λ 1 + λ mit λ größter Eigenwert von A 1 B.
12 3 HOTELLINGS T VERTEILUNG 11 3 Hotellings T Verteilung Bestimmung: Sei d N p (, I) und M W p (I, m) und d und M seien unabhängig, dann folgt md T M 1 d T (p, m) Hotellings T Verteilung, wobei p die Dimension des Vektors unabhängiger Normalverteilungen ist und m die Anzahl der Komponenten der Wishart Verteilung. Allgemeiner seien x und M unabhängig mit x N p (µ, Σ), M W p (Σ, m), dann erhält man m(x µ) T M 1 (x µ) T (p, m). Die Aussage ergibt sich aus d = Σ 1/ (x µ) N(, I) und M = Σ 1/ MΣ 1/ W p (I, m) aus m d T M 1 d = m(x µ) T M 1 (x µ). Anwendung: Sei x = 1 n x i N(µ, Σ/n) der Mittelwert aus n unabhängigen normalverteilten Zufallsvariablen x i N(µ, Σ) und S = 1 n n (x i x)(x i x) T n die empirische Kovarianzmatrix. Dann gilt (n 1)( x µ) T S 1 ( x µ) T (p, n 1). Die Aussage ergibt sich aus ns W p (Σ, n 1) und n 1/ ( x µ) N(µ, Σ) aus (n 1)n 1/ ( x µ) T (ns) 1 n 1/ ( x µ) = (n 1)( x µ) T S 1 ( x µ).
13 3 HOTELLINGS T VERTEILUNG 1 Für den Spezialfall p = 1 ergibt sich (n 1)( x µ) T S 1 ( x µ) ( x µ) = n 1 n 1 (x i x) i ( ) x µ = s/ T (1, n 1). n Weitere Eigenschaften und Anwendungen: 1. T und t-verteilung Die T (1, m) Verteilung entspricht dem Quadrat der t(m) Verteilung und damit der F (1, m) Verteilung.. T und F Verteilung Genereller gilt eine Äquivalenz zwischen der T Verteilung und der F Verteilung in der Form bzw. T (p, m) ˆ={(mp)/(m p + 1)}F (p, m p + 1). F (p, s) = s s + p 1 T (p, s + p 1) 3. Verteilung der empirischen Mahalanobis Distanz zwischen x und µ. Aus () folgt wegen (n 1)( x µ) T S 1 ( x µ) T (p, n 1) n p ( x µ) T S 1 (x µ) p F (p, n p). 4. Verteilung der empirischen Mahalanobis Distanz für zwei Stichproben. Aus unabhängigen Stichproben x (i) 1,..., x(i) n i N(µ i, Σ i ), i = 1, erhält man die Mittelwerte und empirischen Kovarianzen x i = 1 n i ni j=1 x(i) j, S i = 1 n i ni j=1 (x(i) j x i )(x (i) j x i ) T
14 3 HOTELLINGS T VERTEILUNG 13 und mit der gepoolten Matrix S = (n 1 S 1 +n S )(n ) die quadrierte Mahalanobis Distanz Gilt µ 1 = µ, Σ 1 = Σ, so folgt D = ( x 1 x ) T S 1 ( x 1 x ). n 1 n n 1 + n D T (p, n ) bzw. n 1 n (n p 1) D F (p, n p 1). n(n )p 5. T ist invariant gegenüber Transformationen t(x) = Ax + b, wobei A eine nichtreguläre Matrix ist.
15 4 WILKS Λ 14 4 Wilks Λ Wilks Λ Verteilung erhält man aus zwei unabhängigen Wishart verteilten Größen A W p (I, m), B W p (I, n), m p. Die Größe Λ = A Λ(p, m, n) A + B folgt der Wilks Verteilung Λ(p, m, n) mit Parametern p, m, n. Durch Erweitern mit A 1 folgt wegen AB = A B für Λ die Darstellung Λ = I + A 1 B 1. Eigenschaften: 1. Für den eindimensionalen Spezialfall A χ (1), B χ (1) ergibt sich die Beta Verteilung Λ(1, 1, 1) ˆ= B(.5,.5).. Für p = 1 besitzt A eine χ (m) Verteilung und B eine χ (n) Verteilung, so dass Λ(1, m, n) = B(m/, n/). 3. Die Verteilungen Λ(p, m, n) und Λ(n, m + n p, p) sind identisch. 4. Die Verteilung von Λ(p, m, n) ist identisch der Verteilung des Produkts u 1... u n, wobei u i Beta ((m + i p)/, p/), i = 1,..., n. 5. Die Verteilung von Λ(p, m, 1) ist äquivalent zu B((m+1 p)/, p/). 6. Weiter gilt 1 Λ(p, m, 1) Λ(p, m, 1) 1 Λ(1, m, n) Λ(1, m, n) p F (p, m p + 1). m p + 1 n F (n, m). m
2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr2 Multivariate Normalverteilung
2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrAnhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen
Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrMathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
MehrÜbungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil
Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
Mehry = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0
8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)
MehrMathematik 2 Probeprüfung 1
WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur
MehrMultivariate Verteilungen und Copulas
Multivariate Verteilungen und Copulas Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II
Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom
Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrEinführung in die Hauptkomponentenanalyse
Einführung in die Hauptkomponentenanalyse Florian Steinke 6. Juni 009 Vorbereitung: Einige Aspekte der multivariaten Gaußverteilung Definition.. Die -D Gaußverteilung für x R ist ( p(x exp (x µ σ. ( Notation:
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom
Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
Mehr4 Einführung in die Theorie linearer Modelle
4 Einführung in die Theorie linearer Modelle Häufig werden mehrere erklärende Variablen bzw. Regressoren X,..., X p gleichzeitig betrachtet. Dafür benötigen wir eine Modellerweiterung. 4. Vorbemerkungen
Mehroder A = (a ij ), A =
Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen
MehrÜbungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,
Übungsrunde, Gruppe 2 LVA 7.369, Übungsrunde, Gruppe 2, 9..27 Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 9..27 Anmerkung: Viele dieser Lösungsvorschläge stammen aus dem Informatik-Forum, Subforum
MehrBeispiel 6 (Multivariate Normalverteilung)
Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom
Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/
MehrGrundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.
Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen
Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)
MehrSeminar Quantitatives Risikomanagement
Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
MehrKapitel 5 : Eigenwerte und Eigenvektoren
Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrStochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung:
Stochastik getext von Frank Eckert Frank.Eckert@post.rwth-aachen.de und Thomas Huppertz thuppert@fh-niederrhein.de Letzte Änderung: 4.Juli.2000 INHALTSVERZEICHNIS Inhaltsverzeichnis Kombinatorische Grundformeln
MehrLS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch
LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
Mehr1 (2π) m/2 det (Σ) exp 1 ]
Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehrx p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!
Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrKapitel 12 Erwartungswert und Varianz
Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrEigenwerte: Auto.eigen<-eigen(cor(Auto.frame))$values round(auto.eigen,digits=4) Kumulierter Anteil
Korrelationsmatrix: Auto.cor
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
Mehr7. Übungsblatt - Lösungsskizzen
Einführung in die Wahrscheinlicheitstheorie und Statisti Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 08/9 7. Übungsblatt - Lösungssien Aufgabe 5 Faltung und Ausdünnung einer Poisson-Verteilung,
MehrStochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
MehrSind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0
Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr4 MEHRDIMENSIONALE VERTEILUNGEN
4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrVERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrStatistik in Geodäsie, Geoinformation und Bauwesen
Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrKontrollfragen und Aufgaben zur 3. Konsultation
1 Technische Universität Ilmenau Fakultät für Mathematik und Naturwissenschaften Institut für Mathematik Prof. Dr. Michael Stiebitz Kontrollfragen und Aufgaben zur 3. Konsultation Termin: Ort: Determinante
Mehr4 Statistik normalverteilter Daten
4 Statistik normalverteilter Daten 4.1 Eine Stichprobe a Die drei Grundfragen. Die schliessende Statistik bildet die Brücke zwischen den Wahrscheinlichkeitsmodellen, die unser Denken strukturieren, und
Mehr2 Klassische statistische Verfahren unter Normalverteilungs-Annahme
7 Klassische statistische Verfahren unter Normalverteilungs-Annahme. χ s, t s, F r,s -Verteilung a) N,..., N s uiv N (0, ) Verteilung von Y := N +... + N s heißt Chi-Quadrat-Verteilung mit s Freiheitsgraden
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
MehrZusatzübung zur Theoretischen Informationstechnik
Lehrstuhl für Theoretische Informationstechnik Zusatzübung zur Theoretischen Informationstechnik Prof. Dr. Anke Schmeink, Martijn Arts, Fabian Altenbach, Christoph Schmitz 14.03.2013 TI I: Aufgabe 1-4
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrDWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
Mehr